El pionero de la IA en Google renuncia: “No deberían avanzar más hasta que sepan si pueden controlarlo”
Martes 02 de Mayo de 2023 2:33 pm
+ -
Le conocen como "el padrino" de la Inteligencia Artificial (IA). Geoffrey Hinton inventó en 2012 la tecnología que sirvió de base para los sistemas que han revolucionado al mundo en los últimos meses. Es ganador del Premio Turing y hasta hace nada trabajó en el desarrollo de la IA en Google. Renunció, dice, para poder advertirlo sin problemas: "No deberían avanzar más hasta que sepan si pueden controlarlo".
La advertencia de Hinton no es solo sobre Google, de quien dice que ha actuado de "manera responsable". Es un llamado de atención a toda la industria, inmersa en una meteórica carrera de lanzamientos de sistemas de IA desde la salida al mercado de ChatGPT en noviembre del año pasado. "Es difícil ver cómo puedes evitar que los malos actores la usen para cosas malas", dijo en entrevista con The New York Times.
Hinton, de 75 años, notificó a Google de su renuncia en abril y el jueves pasado habló directamente con el director ejecutivo, Sundar Pichai, asegura el Times. Trabajó durante más de una década en la compañía, tiempo en el que se convirtió en una de las voces más respetadas del sector. "Hay una parte de mí que lamenta el trabajo de toda mi vida", reconoce el científico.
Las preocupaciones inmediatas del ex trabajador de Google tienen que ver con dos cosas: el riesgo que implica la IA para los puestos de trabajo y su influencia en campañas de desinformación. "Te quita el trabajo pesado, pero te puede terminar quitando todo", advierte Hinton.
Un actor clave en el desarrollo de la IA
Hinton adoptó el concepto de "red neuronal" cuando era estudiante de posgrado en la Universidad de Edimburgo, Escocia, en 1972. Se trata de un sistema matemático que emula el modo en que el cerebro humano procesa la información. Casi toda su carrera se dedicó a su desarrollo.
Hinton se estableció en Canadá en los años 80. En 2012, junto con dos de sus estudiantes de posgrado en Toronto, construyeron una red neuronal que podía analizar miles de fotos y aprender a identificar objetos comunes, como perros y coches. Entonces, Google pagó 44 millones de dólares para comprar la empresa que Hinton y sus dos alumnos fundaron.
Uno de estos dos alumnos era Ilya Sutskever, quien al poco tiempo pasó a ser jefe científico de OpenAI, el creado de ChatGPT. En 2018, Hinton recibió el Premio Turing, el equivalente al "Nobel de la computación", por su trabajo en redes neuronales.
Al principio, cuando Google y OpenAI comenzaron a desarrollar sus redes neuronales, a Hinton le pareció que eran un gran mecanismo para que las máquinas entendieran y generaran lenguaje. Pero comenzó a preocuparse el año pasado, cuando las compañías comenzaron a desarrollar sistemas a partir de cantidades de datos mucho más grandes. Se dio cuenta de que, en algunos aspectos, estas IA estaban dejando atrás a la inteligencia humana.
"Eran muy pocos los que pensaban que estas cosas realmente podían volverse más inteligentes que las personas", dice Hinton. "La mayoría, entre los que me incluyo, creíamos que todavía eso estaba muy lejos. Yo suponía que faltaban 30 o 50 años más. Obviamente, ya no pienso lo mismo".
El ex trabajador de Google se suma a la alarma sobre la IA
Hinton sí considera que las versiones futuras de IA pueden convertirse en una amenaza para la humanidad. Debido a la gran cantidad de datos que analizan, muchas veces estos sistemas aprenden comportamientos inesperados. Hinton teme, incluso, que un día las armas verdaderamente autónomas se hagan realidad.
Ya lo ha reconocido el propio CEO de Google, Sundar Pichai, quien dijo el mes pasado que hay varias funciones de Bard, el chatbot de IA de la compañía, que todavía no comprenden. Habló que su modelo ha experimentado varias capacidades emergentes inesperadas en las últimas pruebas, como el razonamiento, la planificación o la creatividad.
Varios representantes de la comunidad científica ya han llamado la atención sobre los riesgos relacionados con la IA. Más de mil especialistas pidieron en marzo a las grandes compañías que se frenen los desarrollos de modelos de IA, hasta que se sepa con certeza "que sus efectos serán positivos y sus riesgos serán manejables". Lo hicieron a través de otra carta abierta, firmada por varios ejecutivos de la industria, entre ellos Elon Musk, dueño de Twitter y cofundador de OpenAI.
Otros ex trabajadores de Google también han apuntado en la misma línea que Hinton. Dos analistas de los productos de IA de Google, por ejemplo, intentaron frenar el lanzamiento de Bard. Los técnicos dejaron por escrito su preocupación, en un informe sobre el riesgo de que el chatbot desarrollado por la compañía generara contenido falso o peligroso.