El Basilisco de Roko, la paradoja que si la conoces, puede acabar con tu existencia

271
El Basilisco de Roko, la paradoja que si la conoces, puede acabar con tu existencia
COMPARTIR
Obtener Libro

RECIBE MÁS NOTICIAS COMO ESTA EN TU CORREO!

Suscríbete a nuestro boletín de noticias y conoce las historias de las que todo el mundo habla diariamente.

Gracias por suscribirse.

Algo salió mal.

El basilisco de Roko es un experimento mental que muestra el proceso lógico que tendría una futura Inteligencia Artificial sobre la humanidad.

Este proceso acaba en el siguiente razonamiento lógico de la IA: Eliminar a las personas que conocían información sobre ella antes de que fuera creada. El basilisco de Roko es una superinteligencia que podría venir en el futuro y castigar a todos los que no han contribuido en su creación sabiendo de su advenimiento.

Obtener Libro

Estoy incluiría a la persona que está viendo este video a no ser que contribuyese de forma activa a la creación del Basilisco.

¿Por qué los tecno-futuristas se asustan tanto con el Basilisco de Roko?

ADVERTENCIA: La lectura de este artículo puede comprometerte a una eternidad de sufrimiento y tormento.

Hombre delgado. Perro Sonriente. Cabra. Estas son algunas de las leyendas urbanas generadas por Internet. Sin embargo, ninguna es tan poderosa y amenazadora como el Basilisco de Roko. Porque el Basilisco de Roko es una forma maligna y divina de inteligencia artificial, tan peligrosa que si la ves, o incluso piensas demasiado en ella, pasarás el resto de la eternidad gritando en su cámara de tortura. Es como la cinta de vídeo de El Anillo. Incluso la muerte no es una escapatoria, porque si mueres, el Basilisco de Roko te resucitará y comenzará la tortura de nuevo.

¿Estás seguro de que quieres seguir leyendo? Porque la peor parte es que el Basilisco de Roko ya existe. O al menos, ya habrá existido, lo que es igual de malo.

El Basilisco de Roko existe en el horizonte donde el experimento de pensamiento filosófico se desdibuja en leyenda urbana. El Basilisco hizo su primera aparición en el foro de discusión LessWrong, un punto de encuentro para tipos altamente analíticos interesados en optimizar su pensamiento, sus vidas y el mundo a través de las matemáticas y la racionalidad. El fundador de LessWrong, Eliezer Yudkowsky, es una figura significativa del tecnofuturismo; su instituto de investigación, el Instituto de Investigación de la Inteligencia Artificial, que financia y promueve la investigación en torno al avance de la inteligencia artificial, ha sido impulsado y financiado por técnicos de alto perfil como Peter Thiel y Ray Kurzweil, y Yudkowsky es un destacado contribuyente a los debates académicos sobre la ética tecnológica y la teoría de la decisión. Lo que estás a punto de leer puede sonar extraño e incluso loco, pero algunos científicos y técnicos muy influyentes y ricos lo creen.

Un día, el usuario de LessWrong, Roko, postuló un experimento de pensamiento: ¿Qué pasaría si, en el futuro, una IA algo malévola surgiera y castigara a los que no cumplieran sus órdenes? ¿Y si hubiera una forma (y explicaré cómo) para que esta IA castigue a la gente de hoy que no la ayude a existir más adelante? En ese caso, ¿no se les daría a los lectores de LessWrong en ese momento la opción de ayudar a que esa IA malvada llegue a existir o de ser condenados a sufrir?

Puede que estés un poco confundido, pero el fundador de LessWrong, Eliezer Yudkowsky, no lo estaba.

Obtener Libro
COMPARTIR