Nueva York (CNN) — Geoffrey Hinton, considerado el «padrino de la inteligencia artificial», confirmó este lunes que dejó su puesto en Google la semana pasada para alertar sobre los «peligros» de la tecnología que él mismo ayudó a desarrollar.
El trabajo pionero de Hinton sobre redes neuronales dio forma a los sistemas de inteligencia artificial que impulsan muchos de los productos actuales. Trabajó a medio tiempo en Google durante una década en las labores de desarrollo de inteligencia artificial del gigante tecnológico, pero ahora le preocupa la tecnología y el papel que desempeñó en su desarrollo.
«Me consuelo con la excusa habitual: si no lo hubiera hecho yo, habría sido alguien más», declaró Hinton al diario The New York Times, que fue el primero en reportar su decisión.
En un tuit de este lunes, Hinton dijo que renunció a Google para poder hablar libremente sobre los peligros de la inteligencia artificial (IA), más que por un deseo de criticar específicamente a Google.
«Me fui para poder hablar sobre los peligros de la IA sin tener en cuenta cómo esto afecta a Google», dijo Hinton en un tuit. «Google ha actuado de forma muy responsable».
Jeff Dean, jefe científico de Google, dijo que Hinton «ha hecho avances fundacionales en IA» y expresó su agradecimiento por la «década de contribuciones de Hinton en Google».
publicidad
«Seguimos comprometidos con un enfoque responsable de la IA», dijo Dean en un comunicado facilitado a CNN.
«Estamos aprendiendo continuamente para comprender los riesgos emergentes al tiempo que innovamos con audacia».
La decisión de Hinton de retirarse de la compañía y hablar sobre la tecnología se produce en un momento en que un número creciente de legisladores, grupos de defensa y conocedores de la tecnología han hecho saltar las alarmas sobre el potencial de una nueva cosecha de chatbots potenciados por IA para difundir información errónea y desplazar empleos.
La oleada de atención suscitada por ChatGPT a finales del año pasado contribuyó a renovar una carrera armamentística entre las empresas tecnológicas para desarrollar e implantar herramientas de IA similares en sus productos. OpenAI, Microsoft y Google están a la cabeza de esta tendencia, pero IBM, Amazon, Baidu y Tencent están trabajando en tecnologías similares.
En marzo, algunas figuras destacadas de la tecnología firmaron una carta en la que pedían a los laboratorios de inteligencia artificial que detuvieran el entrenamiento de los sistemas de IA más potentes durante al menos seis meses, citando «profundos riesgos para la sociedad y la humanidad». La carta, publicada por el Future of Life Institute, una organización sin fines de lucro respaldada por Elon Musk, llegó apenas dos semanas después de que OpenAI anunciara GPT-4, una versión aún más potente de la tecnología que impulsa ChatGPT. En las primeras pruebas y en una demostración de la empresa, GPT-4 se utilizó para redactar demandas, aprobar exámenes estandarizados y crear un sitio web funcional a partir de un boceto dibujado a mano.
En la entrevista con The New York Times, Hinton se sumó a las preocupaciones sobre el potencial de la inteligencia artificial para eliminar puestos de trabajo y crear un mundo en el que muchos «ya no serán capaces de saber qué es verdad». También señaló el asombroso ritmo de avance, mucho más allá de lo que él y otros habían previsto.
«La idea de que estas cosas pudieran llegar a ser más inteligentes que las personas, unos pocos lo creían», dijo Hinton en la entrevista. «Pero la mayoría pensaba que no era así. Y yo también. Pensaba que faltaban de 30 a 50 años o incluso más. Obviamente, ya no pienso eso».
Incluso antes de apartarse de Google, Hinton había hablado públicamente sobre el potencial de la IA para hacer tanto daño como bien.
«Creo que el rápido progreso de la IA va a transformar la sociedad de formas que no comprendemos del todo y no todos los efectos van a ser buenos», dijo Hinton en un discurso de apertura de 2021 en el Instituto Indio de Tecnología de Bombay. Señaló que la IA impulsará la atención sanitaria, pero también creará oportunidades para las armas autónomas letales. «Esta perspectiva me parece mucho más inmediata y mucho más aterradora que la de que los robots tomen el control, que creo que está muy lejos».
Hinton no es el primer empleado de Google en sonar las alarmas la IA. En julio, la empresa despidió a un ingeniero que afirmaba que un sistema de IA aún no publicado se había vuelto consciente, alegando que había infringido las políticas de empleo y de seguridad de datos. Muchos miembros de la comunidad de la IA rechazaron enérgicamente la afirmación del ingeniero.
— Samantha Murphy Kelly y Ramishah Maruf contribuyeron con este reportaje.