El aprendizaje automático abre las puertas a un
mundo en el que humanos y máquinas coexistirán en equipo.
A finales de los años 1950, el
informático Arthur Samuel creó un programa para jugar a las damas, utilizando
un algoritmo sencillo para descubrir los mejores movimientos para ganar. Samuel
entrenó el ordenador con una copia de sí mismo (el self
play) y con una base de datos en la que estaban registrados
centenas de partidos. Era el inicio del machine
learning (aprendizaje automático), una rama de la
inteligencia artificial (IA) que permite que las máquinas aprendansin ser explícitamente
programadas. Casi siete décadas después de ese juego, esa tecnología tiene
aplicaciones tan diversas como el diagnóstico de un cáncero la construcción
de coches autónomos. Hace unos días se dio a conocer su último invento: Sophia, un androide desarrollado por la compañía
Hanson Robotics, que acaparó todas las atenciones en la feria tecnológica de
Ginebra.
"Es una tecnología aplicable a prácticamente todos los campos en los que
haya datos disponibles", explica a EL PAÍS Thomas Dietterich, uno de los padres del machine learning como campo
de investigación. El experto menciona ejemplos que van desde los algoritmos
usados en el mundo de los negocios para identificar posibles compradores de un
producto hasta los sistemas utilizados por los gobiernos para solucionar
problemas en infraestructuras como autopistas e hidroeléctricas. Otros ejemplos
más cercanos son los sistemas de traducción automática en Skype, el
reconocimiento facial de las cámaras de los móviles y los asistentes virtuales,
apuestas de empresas como Google y Microsoft para aproximar la tecnología al usuario
final.
Cortana, el
asistente virtual de Microsoft, cuenta con 145 millones de usuarios y la
compañía pretende “desarrollarlo hasta el punto en que se comunique
directamente con otras IAs para ofrecer al usuario cualquier tipo de
información o servicio, desde la compra de un zapato hasta la entrega de una
pizza en casa”, según cuenta Ester de Nicolás, líder del equipo de Evangelismo
Técnico de la empresa. “Nuestro objetivo es democratizar el acceso al machine learning”, afirma. La
principal apuesta en ese sentido es la plataforma de aprendizaje automático en
Azure, un servicio de análisis en la nube que permite crear e implementar
modelos de máquinas según las necesidades de cada usuario.
Google
centra su estrategia en TensorFlow, un almacén de experiencias y resultados de
experimentos que usa para que sus aplicaciones tomen mejores decisiones, y que
tiene datos abiertos desde 2015. La plataforma ha sido utilizada por diferentes
desarrolladores y empresas en todo el mundo para cosas tan dispares como aumentar la producción de leche en vacas o
crear un modelo para predecir la compatibilidad entre donante y receptor en
los trasplantes de órganos. Pero Google quiere más: “Estamos trabajando en
robots que puedan hacerse cargo de situaciones peligrosas y llegar a sitios a
los que los seres humanos no podemos llegar, como en la central nuclear de Fukushima”,
cuenta Andrés Leonardo Martínez, ingeniero informático de la compañía.
Riesgos y errores
Además de hacer proyecciones para el
futuro, los expertos también se preguntan cuáles son los riesgos de un mundo en
el que robots se adaptan y aprenden a partir de la experiencia (como los seres
humanos). Descartan, eso sí, un escenario de ciencia ficción donde las máquinas
aniquilan la humanidad. “Creamos y programamos computadoras porque nos permiten
hacer las cosas mejor. Imagino un futuro en el que una persona y un sistema de
IA trabajan juntos como un equipo. En prácticamente todos los campos, la combinación
de robots y personas es más poderosa. Un ejemplo famoso es conocido como ajedrez centauro, en el que
compiten equipos mixtos de personas y ordenadores. Los mejores equipos centauro
pueden derrotar a cualquier humano y cualquier computadora que juegue solo”,
comenta Dietterich.
El investigador ve por lo
menos dos papeles importantes para los humanos en el futuro: realizar tareas
que exigen empatía y “comprensión profunda de otro ser humano” y asegurar que
los robots no cometan errores. “Los problemas de toma de decisiones de alto
riesgo a menudo involucran factores únicos. El aprendizaje automático solo
funciona bien en problemas estables, cuando el mundo es altamente predecible y
es fácil recolectar gran cantidad de datos de entrenamiento. En los problemas
donde cada situación es única, es improbable que esa tecnología tenga éxito”,
explica.
Ester de Nicolás sostiene que
“preocuparse ahora mismo por la revolución de los robots es como preocuparse
por la superpoblación en Marte”, pero señala que hay problemas que son menos
visibles y de los que poco se habla, como el hecho de que los sistemas dependan
de bases de
datos, muchas veces privados y sesgados. “No siempre hay datos
correctos. Estamos depositando muchísima confianza en AI, pero hay que tener
más cuidado con esas cosas”.
Dietterich da un ejemplo de
esa pega: algunas empresas utilizan el aprendizaje automático para decidir qué
salario ofrecer a un empleado. Si los datos históricos demuestran que las
mujeres han cobrado menos que los hombres, entonces el algoritmo recomendará
ofrecer a ellas un sueldo más bajo. El experto defiende la creación de una
regulación que determine pruebas de seguridad y una certificación específica
para mitigar esos riesgos. Sebastian Farquhar, investigador del Instituto para
el Futuro de la Humanidad opina, sin embargo, que es pronto para eso. “La
legislación está subdesarrollada, y eso es algo bueno, porque la tecnología
está cambiando constantemente. Creo, eso sí, que debemos ser más conscientes de
los riesgos, porque hay mucho en juego”, dice. Mientras tanto, trabajan para
que los robots aporten súper poderes físicos e intelectuales. “Espero el día en
que me pondré un exoesqueleto para levantar 300 kg o correr largas distancias
cuando tengo 80 años”, cuenta Dietterich.
No hay comentarios:
Publicar un comentario