INTERES GENERAL

Inteligencia artificial: temen que aprendan a odiar a los humanos y nos vean como una amenaza a destruir

Mo Gawdat, ex director comercial de X Development, el ala secreta de investigación y desarrollo de Google, advirtió que la Inteligencia Artificial actual es entrenada en modelos de comprensión de idiomas que sólo les permite aprender a partir de las redes sociales. Por ello, teme que el sesgo de la negatividad pueda causar un peligro, ya que la tecnología tiene el poder de “amar” a la humanidad o de querer “aplastarla como a moscas”.
Si bien Gawdat afirma que aún es un temor precipitado, ya que todavía no cuentan con la capacidad de destrucción y asegura que “la humanidad es la amenaza”, sí cree que la IA pronto tendrá la “agencia para crear máquinas de matar”, pero solo “porque los humanos las están creando”.
Asimismo, instó a crear espacios de reflexión sobre cómo vivimos, ya que al centrarse en escenarios apocalípticos distantes, dijo, la humanidad podría no abordar los problemas que puede cambiar en este momento para garantizar un futuro más armonioso en nuestra inevitable asociación con la IA hiperinteligente.
Para Gawdat, quien escribió un libro sobre el futuro de la IA en 2021, llamado Scary Smart, los temores comunes sobre ChatGPT son una "pista falsa" y el poder de los chatbots de hoy es muy exagerado por el público y los legisladores gubernamentales. “Ahora que ChatGPT está entre nosotros, a pesar de que ChatGPT honestamente no es el problema, todos se despiertan y dicen: ‘¡Pánico! ¡Pánico! Hagamos algo al respecto’”, ironizó.
Las advertencias sobre la IA
“He vivido entre esas máquinas. Sé lo inteligentes que son. Ojalá no las hubiera creado”, afirmó Mo Gawdat y profundizó: “¿Qué tan probable es que la IA piense en nosotros como escoria, hoy? Muy probable”. En consecuencia, advirtió que si bien aún está lejos de ser factible, la IA podría utilizar sus habilidades para dictar una agenda como la película Yo, robot.

Gawdat es el segundo miembro del personal de Google en hablar sobre los riesgos que conlleva la IA en las últimas semanas. Geoffrey Hinton, un galardonado científico informático conocido como “el padrino de la inteligencia artificial”, renunció a su puesto este mes y expresó en comunicación con el New York Times su preocupación por el potencial de una dinámica tóxica entre la IA y las noticias.
Hinton informó que, en un futuro cercano, la IA inundaría internet con fotos, videos y textos falsos. Las falsificaciones serían de una calidad donde la persona promedio "ya no podría saber qué es verdad". Además, piensa que pronto los sistemas de IA serán más inteligentes que los humanos y que esa mejora tecnológica es atemorizante, por lo cual no debería seguir trabajándose en su ampliación hasta saber con seguridad si es posible controlarla.
Después de que se publicara la entrevista, Hinton aclaró en su cuenta de Twitter que no había renunciado a Google para poder criticar a la empresa. "En realidad, me fui para poder hablar sobre los peligros de la IA sin considerar cómo afecta esto a Google". A pesar de ello, recordó que, a diferencia de las armas nucleares, no hay forma de saber si las empresas o los países están trabajando en la IA en secreto.

IA

Estás navegando la versión AMP

Leé la nota completa en la web