Geoffrey Hinton, el flamante ganador del premio Nobel de Física 2024, ya era famoso antes de este galardón, el mismo que recibió Albert Eisntein, debido a su renuncia a Google en el 2023 para denunciar los peligros de la inteligencia artificial.
Luego del anuncio de su obtención del premio Nobel, Hinton dijo sobre la inteligencia artificial (IA): "No tenemos experiencia en lo que es tener cosas más inteligentes que nosotros" y, aunque el futuro pueda ser "maravilloso en muchos aspectos", también alertó sobre sus "posibles malas consecuencias".
Hinton, nacido en 1947 en Londres y profesor de la Universidad de Toronto, ganó el Premio Nobel de Física, junto al estadounidense John Hopfield, por descubrir las bases fundacionales que permiten el aprendizaje automático con redes neuronales artificiales, lo que allanó el camino para desarrollar algunos sistemas de IA.
El premiado intervino por teléfono durante la rueda de prensa en la que se anunció el galardón y fue preguntado sobre la influencia que las redes neuronales y el aprendizaje automático pueden tener en un futuro. El investigador británico-canadiense consideró que la influencia va a ser "enorme" y la comparó con "la Revolución Industrial, pero en lugar de superar a la gente en fuerza física lo hará en capacidad intelectual".
Hinton dijo: "No tenemos experiencia en lo que es tener cosas más inteligentes que nosotros y va a ser maravilloso en muchos aspectos", como la atención de la salud o que las personas podrán hacer el mismo trabajo, con un asistente de IA, en mucho menos tiempo, lo que se traducirá en "enormes mejoras en la productividad".
¿Por qué el ganador del Nobel de Física renunció a Google?
Sin embargo, llamó la atención sobre que también hay que preocuparse por "una serie de posibles malas consecuencias". En particular "la amenaza de que estas cosas se salgan de control". Premio de Fronteras del Conocimiento en la categoría de Tecnologías de la Información y Comunicación en 2017, Hinton llegó a ser vicepresidente e investigador de ingeniería de Google, compañía que abandonó el año pasado.
Aquella salida de Google, según publicó el ahora nobel en sus redes sociales en mayo del año pasado, "fue para poder hablar de los peligros de la IA sin tener en cuenta cómo afecta esto" a esa empresa, de la que indicó que "ha actuado de forma muy responsable". En varias entrevistas, Hinton ha puesto en guardia sobre los peligros de la inteligencia artificial, y en alguna ocasión afirmó que se arrepentía de parte de su trabajo, según se recordó en la rueda de prensa.
Al respecto, explicó que "hay dos tipos de arrepentimiento", aquel con el que uno se siente "culpable", porque se hizo algo nuevo, que no se debería haber hecho, y un segundo por algo que se volvería a hacer "en las mismas circunstancias, pero puede que al final, no salga bien". Este es el tipo de arrepentimiento que aseguró tener y agregó que "en las mismas circunstancias volvería a hacer lo mismo", aunque reiteró su preocupación de que se pueda llegar a sistemas "más inteligentes" que "eventualmente tomen el control".
El experto en IA, cuyo trabajo fue fundamental para disponer de herramientas como ChatGPT, declaró que cuando quiere saber la respuesta a algo pregunta a ChatGPT 4, el cual usa bastante, aunque advirtió: "No me fío del todo porque puede alucinar", cuando la IA generativa da respuestas erróneas, imprecisas o faltas de sentido.
iP