Sam Altman, presidente ejecutivo de OpenAI y creador de ChatGPT, charla con miembros de la audiencia tras su charla en Universidad Técnica de Múnich (TUM), en Alemania, este jueves.

La inteligencia artificial (IA) supone un “riesgo de extinción” para la humanidad, al igual que catástrofes como una guerra nuclear o una pandemia. Esas son las conclusiones de un grupo de 350 ejecutivos, investigadores e ingenieros expertos en esta tecnología en una carta abierta de tan solo 22 palabras publicada este martes por el Centro para la Seguridad de la IA, una organización sin fines de lucro. “Mitigar el riesgo de extinción [para la humanidad] de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, cita el enunciado que ha sido firmado, entre otros, por los altos ejecutivos de tres de las principales empresas de inteligencia artificial: Sam Altman (presidente ejecutivo de OpenAI), Demis Hassabis (Google DeepMind) y Dario Amodei (Anthropic). Entre los firmantes también se encuentran los investigadores Geoffrey Hinton y Yoshua Bengio, a quienes menudo se les considera padrinos del movimiento moderno de IA. Hinton dejó hace unas semanas Google, donde ocupaba una vicepresidencia, porque cree que esta tecnología puede llevarnos al fin de la civilización en cuestión de años, según confesaba a EL PAÍS.

FILE - Computer scientist Geoffrey Hinton, who studies neural networks used in artificial intelligence applications, poses at Google's Mountain View, Calif, headquarters on March 25, 2015. Hinton, a computer scientist known as the “godfather of artificial intelligence,” resigned in 2023 from his high-profile job at Google specifically to share his concerns that unchecked AI development could threaten humanity. (AP Photo/Noah Berger, File)
Geoffrey Hinton: “Si hay alguna forma de controlar la inteligencia artificial, debemos descubrirla antes de que sea tarde”

La declaración llega en un momento de creciente preocupación hacia un sector en rápido desarrollo y difícil de controlar. El mismo Sam Altman se había ya pronunciado sobre este tema durante su comparecencia ante el Senado estadounidense, cuando reconoció la importancia de regular la inteligencia artificial generativa. “Mi peor miedo es que esta tecnología salga mal. Y si sale mal, puede salir muy mal”, dijo hace apenas dos semanas durante la primera audiencia sobre IA celebrada en el Capitolio. El padre de OpenAI —la compañía que ha desarrollado ChatGPT, el programa de inteligencia artificial más popular y poderoso en este campo— añadió que comprendía que la “gente esté ansiosa por cómo [la IA] puede cambiar la forma en que vivimos”, y que por esta razón es necesario “trabajar juntos para identificar y gestionar las posibles desventajas para que todos podamos disfrutar de las tremendas ventajas”.https://imasdk.googleapis.com/js/core/bridge3.575.0_en.html#goog_90869622

No era la primera vez que uno de los empresarios más involucrados en esta tecnología hacían declaraciones de esta envergadura con respeto al futuro de la IA. En marzo, más de un millar de intelectuales, investigadores y empresarios habían firmado otra carta abierta en la que solicitaban frenar durante “al menos seis meses el desarrollo de sistemas de IA más poderosos que GPT4″, la última versión de ChatGPT. En la carta, los firmantes advertían de que la herramienta de OpenAI ya es capaz de competir con los humanos en un creciente número de tareas, y que se podría utilizar para destruir empleo y difundir desinformación. “Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera sin control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”, aseguraba la carta, que firmó también el magnate Elon Musk, fundador de Tesla y SpaceX y dueño de Twitter, que es también uno de los fundadores de OpenAI.

Otra voz de alarma en este campo fue la del británico Geoffrey Hinton, que a principio de mayo dejó su trabajo en Google para poder advertir con mayor libertad de los peligros que plantean estas nuevas tecnologías. “Por lo que sabemos hasta ahora sobre el funcionamiento del cerebro humano, probablemente nuestro proceso de aprendizaje es menos eficiente que el de los ordenadores, confesaba hace unas semanas a EL PAÍS. Hinton aseguraba en esa misma entrevista que quedan “de cinco a 20 años” para que la inteligencia artificial supere a la humana.

“Nuestros cerebros son el fruto de la evolución y tienen una serie de metas integradas, como no lastimar el cuerpo, de ahí la noción del daño; comer lo suficiente, de ahí el hambre; y hacer tantas copias de nosotros mismos como sea posible, de ahí el deseo sexual. Las inteligencias sintéticas, en cambio, no han evolucionado: las hemos construido. Por lo tanto, no necesariamente vienen con objetivos innatos. Así que la gran pregunta es, ¿podemos asegurarnos de que tengan metas que nos beneficien a nosotros?”, decía.

Geoffrey Hinton,

INFORMACIÓN POR EL PAÍS

Comentarios de Facebook
Comparte en tus redes sociales
Share on Facebook
Facebook
Tweet about this on Twitter
Twitter
Print this page
Print

Acerca de Expreso de Tuxpan

El sitio de noticias líder de Tuxpan, todo lo importante de la política, cultura, mundo, desarrollo, ciencia, tecnología y más.

Ver todas las entradas de Expreso de Tuxpan →