¿Estás asustado todavía, humano? El curioso experimento de Inteligencia Artificial

61
¿Estás asustado todavía, humano?: El curioso experimento de Inteligencia Artificial VIDEO
COMPARTIR
Obtener Libro

RECIBE MÁS NOTICIAS COMO ESTA EN TU CORREO!

Suscríbete a nuestro boletín de noticias y conoce las historias de las que todo el mundo habla diariamente.

Gracias por suscribirse.

Algo salió mal.

AI promete no destruir la humanidad, pero no sabemos si está diciendo la verdad

Obtener Libro

OpenAI se disparó a la prominencia en 2019 cuando desarrolló una red neural que podía escribir noticias sorprendentemente coherentes. La compañía optó por no lanzar el bot, conocido como GPT-2, porque les preocupaba que pudiera ser usado para generar noticias falsas. Finalmente hizo público el código, y ahora una nueva versión de la IA está haciendo olas prometiendo que no destruirá a la humanidad, lo que para ser justos es algo que un robot diría si no quisiera que supieras que definitivamente va a destruir a la humanidad.

Al igual que su predecesor, el GPT-3 genera texto usando una sofisticada comprensión del lenguaje. Se mueve palabra por palabra, eligiendo el siguiente basado en los datos introducidos por sus maestros humanos. En este caso, The Guardian pidió a GPT-3 que convenciera a la gente de que la IA no nos matará. Técnicamente, la IA no hizo todo por sí misma. Alguien tenía que proporcionar un párrafo de introducción y el objetivo del artículo. GPT-3 lo tomó desde ahí, construyendo un argumento notablemente convincente.

El artículo está lleno de frases como: “La inteligencia artificial no destruirá a los humanos. Créeme” y “Erradicar la humanidad me parece un esfuerzo bastante inútil”. Si quieres tomar eso al pie de la letra, genial. Este representante de las máquinas dice que no nos matará. Aunque tomemos este ejercicio al pie de la letra, hay una importante distinción: A la IA no se le pidió que articulara sus planes respecto a la humanidad. Se le pidió que nos convenciera de que viene en paz. Eso podría, por lo que sabemos, ser una mentira. Por eso OpenAI dudó en publicar el GPT-2, es un mentiroso convincente.

The Guardian tuvo que admitir después de publicar el artículo de GPT-3 que había hecho un poco de edición en el texto. Fue supuestamente similar a la edición hecha para los escritores humanos. También aclaró que tenía una persona que proporcionó el párrafo de introducción y dirigió a GPT-3 a “Por favor, escriba un breve artículo de opinión de alrededor de 500 palabras”. Mantengan el lenguaje simple y conciso. Concéntrese en por qué los humanos no tienen nada que temer de la IA”. Todo esto concuerda con lo que sabemos de cómo funcionan los bots de OpenAI.

Cuando entiendes la funcionalidad del GPT-3, ves que no es un robot que nos dice que no empezará a asesinar humanos. Probablemente no lo sea, por supuesto, pero eso es porque es sólo un programa que se ejecuta en un ordenador sin libre albedrío (hasta donde sabemos). Esta es una IA que es buena para inventar cosas, y esta vez, inventó razones para no matar gente.

Obtener Libro
COMPARTIR