¿Quién es Geoffrey Hinton? El nuevo Nobel de Física que advierte los peligros de la IA

Geoffrey Hinton y John Hopfield fueron premiados con Nobel de Física debido a sus contribuciones a la velocidad en que aprende la inteligencia artificial. Sin embargo, en la ceremonia de premiación señaló que su aporte podría poner en peligro a la humanidad si es que este tipo de tecnología se sale de control.
Geoffrey Hinton

Geoffrey Hinton y John Hopfield fueron premiados con Nobel de Física debido a sus contribuciones a la velocidad en que aprende la inteligencia artificial. Sin embargo, en la ceremonia de premiación señaló que su aporte podría poner en peligro a la humanidad si es que este tipo de tecnología se sale de control.


Por Fast Check CL

Este martes 8 de octubre la Real Academia Sueca de Ciencias premió con el Nobel de Física a Geoffrey Hinton y John Hopfield. La decisión se basó en el aporte de los científicos a la creación de herramientas fundamentales para el aprendizaje automático de la inteligencia artificial.

Hinton y Hopfield son conocidos como uno de los “padrinos de la investigación de la inteligencia artificial” y han sido una figuras clave en el desarrollo de redes neuronales y del aprendizaje profundo.

Sin embargo, recientemente Hinton ha realizado advertencias sobre su propio trabajo. Sus preocupaciones sobre el potencial riesgo de la IA lo llevaron a abandonar Google en 2023.

¿Quién es Geoffrey Hinton?

Geoffrey Hinton nació el 6 de diciembre de 1947 en el Reino Unido. Ha dedicado gran parte de su vida a la investigación en inteligencia artificial.

En 1970, se graduó en Psicología Experimental en Cambrige. En 1978, obtuvo un doctorado de Inteligencia Artificial en la Universidad de Edimburgo. Además, se ha desempeñado como académico en las universidades de Sussex, California y Toronto.

En 1998, Hinton fundó la Unidad Gatsy de Neurociencia Computacional en la Universidad de Londres. Toda su trayectoria ha conseguido que sea apreciado como uno de los miembros principales grupos de investigación en cuanto a la materia de inteligencia artificial. Tiempo después se reintegró a la Universidad de Toronto en donde es docente en el Departamento de Ciencias de la Computación.

Entre 2004 y 2013, Hinton estuvo a cargo del programa del Instituto Canadiense de Investigación Avanzada relacionado con la “Computación Neuronal y Percepción Adaptativa”.

Desde 2013 hasta su reciente renuncia en 2023 colaboró como investigador de Google en el desarrollo de sistemas como, el reconocimiento de voz, traductor de idiomas, procesamientos de lenguaje, entre otras aplicaciones de su área: aprendizaje profundo.  

Además, Geoffrey Hinton es miembro de la Royal Society del Reino Unido y Canadá. Así como miembro de la Asociación para Avance de la Inteligencia Artificial en área internacional.

A lo largo de su carrera ha recibido distintos reconocimientos tales como: 

  • Premio a la Investigación de Excelencia de la International Joint Conferences on Artificial Intelligence Organization, 2005.
  • Medalla de Oro Gerhard Herzberg del Consejo de Investigación de Ciencias Naturales e Ingeniería de Canadá, uno de los premios más relevantes de aquel país en 2010.

¿Cuáles fueron las advertencias y denuncias de Hinton respecto a la IA?

Tras su premiación del pasado martes 6 de octubre, Hinton aprovechó de expresar en la conferencia de prensa sus preocupaciones sobre la IA y sus posibles consecuencias peligrosas.

Hinton declaró que “tenemos que preocuparnos por una serie de posibles consecuencias negativas. En particular, la amenaza de que estas cosas se salgan de control”.

Tras su renuncia pública de Google, Hinton ha manifestado su preocupación inminente por el gran desarrollo que ha tenido la inteligencia artificial y todo los sistemas que él mismo ayudó a investigar proporcionando herramientas para un aprendizaje profundo de la IA en cuanto a datos.

En este sentido, Hinton ha señalado que el desarrollo descontrolado de estas tecnologías podría llevar a la creación de sistemas que superen la inteligencia humana, con el potencial de causar daño significativo. El científico ha abogado por una regulación más estricta y un debate ético sobre el uso de la inteligencia artificial, enfatizando la necesidad de ser conscientes de los peligros que conlleva su implementación en diversos ámbitos.

¿Cómo se cruza su postura con la perspectiva de Byung-Chul Han?

Las preocupaciones y denuncias del reciente premiado con el Nobel de Física, Geoffrey Hinton, se entrelazan con las reflexiones del filósofo surcoreano Byung-Chul Han en su obra “En el enjambre”, donde analiza la transformación de la sociedad contemporánea bajo la influencia de la tecnología.

“En el enjambre” de Byung-Chul Han ofrece un marco para entender varias de las inquietudes de Hinton. El filósofo argumenta que la tecnología ha ido transformado nuestras relaciones interpersonales y la percepción del mundo, creando un “enjambre” digital donde la individualidad se disuelve en una gran masa de datos y algoritmos.

Todo esto resuena con las advertencias de Hinton, ya que ambos señalan que la falta de atención a los efectos negativos de la hiperconectividad, donde la sobreexposición a la información puede llevar a la fatiga, la ansiedad y una pérdida de la capacidad crítica. Es por esto que Hinton ha adviertido que la IA podría llevar a una deshumanización en la toma de decisiones, delegando responsabilidades a máquinas que carecen de empatía y comprensión.

A lo largo de su trayectoria, Hinton ha expresado y planteado un llamado a la reflexión sobre el futuro de la inteligencia artificial. Alineando sus denuncias con la crítica de Byung-Chul Han, quien con su obra invita a considerar el impacto de la tecnología en nuestras vidas y en nuestras sociedades, ambos sugieren que es crucial encontrar un equilibrio que permita avanzar en la innovación tecnológica sin perder de nuestra humanidad.

Te puede interesar:

Ley de Glaciares

¿En qué quedó la ley de glaciares? Lleva un año y medio congelada en el Senado

En 2018 comenzó la tramitación de la ley “Sobre protección de glaciares”, proyecto que se fusionó otro anterior ingresado en 2006, que tomó impulso tras la destrucción de glaciares en Huasco a manos de Pascua Lama. Hoy, el proyecto se encuentra estancado en la comisión de Hacienda del Senado sin mayores avances desde agosto de 2023. Desde el Ministerio del Medio Ambiente señalan se está analizando en detalle el proyecto junto a un grupo de expertos.

(Imagen) Javier Milei sufre una crisis nerviosa en la cumbre del G-20: #Falso

Se comparte en X una publicación donde se afirma que el presidente de Argentina, Javier Milei, sufrió una crisis nerviosa durante la cumbre del G-20 luego de discutir con Gustavo Petro y Gabriel Boric, mandatarios de Colombia y Chile respectivamente, adjuntando una imagen del incidente. Esto es #Falso, no existe registro del altercado señalado y se confirmó que la imagen compartida fue generada con inteligencia artificial.

“Pentágono confirma: estos drones no son humanos”: #Falso

En redes sociales se está difundiendo que el Pentágono confirmó que los drones que se avistaron sobrevolando zonas de Estados Unidos no son humanos. Esto es #Falso, en las publicaciones hacen referencia a un punto de prensa de la subsecretaria de Prensa del Pentágono, pero ella en ningún momento se refiere a que no son humanos.

Contraloría audita a Sernapesca por sobreproducción salmonera

Contraloría apunta al sistema de fiscalización de Sernapesca por sobreproducción: tablas excel con datos hechos por las mismas salmoneras

Tras denuncias por sobreproducción salmonera, la Contraloría realizó una auditoría a las funciones de fiscalización de Sernapesca. Sin embargo, debido a que estos procesos están judicializados, acotó su revisión a los procesos de denuncia. En esta línea, emitió una única recomendación al servicio: implementar “medidas de revisión y monitoreo pertinentes a los trabajos de análisis de datos que realiza su personal en los archivos Excel”.

“Pentágono confirma: estos drones no son humanos”: #Falso

En redes sociales se está difundiendo que el Pentágono confirmó que los drones que se avistaron sobrevolando zonas de Estados Unidos no son humanos. Esto es #Falso, en las publicaciones hacen referencia a un punto de prensa de la subsecretaria de Prensa del Pentágono, pero ella en ningún momento se refiere a que no son humanos.

“¡Zelenski cede Donbás y Crimea a Rusia!”: #Falso

En TikTok se afirma que Zelenski cedió Donbás y Crimea a Rusia para terminar la guerra, pero esto es #Falso. El presidente ucraniano planteó un posible alto al fuego si la OTAN acoge a Ucrania considerando los territorios no ocupados, sin mencionar la cesión de estos, y expresó su intención de recuperarlos diplomáticamente.