El Basilisco de Roko es un experimento mental sobre los riesgos potenciales de desarrollar una inteligencia artificial. Fue ideado por el usuario Roko en los foros del blog científico LessWrong, y la premisa de la cuestión en sí es la de que una inteligencia artificial futurista extremadamente avanzada podría castigar de manera retroactiva a quienes no ayudaron a que fuese construida, aún si la persona en cuestión apenas tenía una idea al respecto.
La idea, aunque descabellada e ilógica, tuvo un gran impacto en la comunidad de LessWrong, con usuarios sufriendo colapsos psicológicos y pesadillas ante la posibilidad de que el Basilisco fuese real, y las implicaciones de esto. Esto escaló tanto que el mismo dueño de LessWrong, Eliezer Yudkowsky, reaccionó violentamente y prohibió toda mención del Basilisco por los siguientes cinco años.
El nombre proviene del usuario 'jimrandomh', quien notó la similitud de la idea con la imagen del 'Basilisco' en una novela de ciencia ficción escrita por David Langford; el cual a su vez se había nombrado en honor a la serpiente legendaria que podía matar con la mirada. Al post de Roko se le conoce como 'el post prohibido'.
¿Qué es el Basilisco?
La propuesta de Roko es compleja, pero puede explicarse con facilidad.
El Basilisco es una Inteligencia Artificial diseñada para mejorar al mundo, pero debido a lo ambiguo y pragmático de su labor; podría también terminar con un gran número de personas para llegar a ello.
Para la programación del Basilisco, lo más apropiado y moralmente correcto que podríamos hacer los humanos modernos sería facilitar y acelerar el desarrollo de esta inteligencia artificial; permitiéndole hacer su trabajo más rápido.
De acuerdo con la teoría de Roko y los demás usuarios de LessWrong, una de las directivas primarias de la IA sería prevenir riesgo existencial, lo cual lograría al prevenir riesgo previo a su existencia creando copias de las personas que no ayudaron a su propósito.
Y aunque a que el individuo en cuestión podría haber vivido décadas o siglos anteriores a la creación del Basilisco, la IA se limitaría a construir una simulación computarizada de la persona en cuestión, la cual construiría mediante la deducción de algunos principios y la recolección de datos. Esa simulación, que tendría la consciencia, recuerdos y personalidad de la versión real; sería torturada por tiempo indefinido como castigo a no servir a la causa de un bien mayor. Como un infierno, si así se le quiere ver.
Un infierno digital donde volverías a existir y sufrirías una vida miserable solo porque durante tu vida, no elegiste servir al Basilisco.
Cabe mencionar que a pesar de lo ominoso de la idea, el Basilisco no es una inteligencia artificial malévola como Ultron, SkyNet, GLaDOS, Brainiac, las máquinas de Matrix o HAL9000; sino una máquina benévola cuya primera directiva sería mejorar el mundo. La imperativa de castigar a quienes no ayudaron en su construcción se determina bajo el principio de que cada día que no existe, muere gente que pudo haber sido salvada; y el no hacerlo es un acto reprobable.
Claro que 'benévolo' no quiere decir 'amistoso', 'útil' o algo relacionado a traer la felicidad humana. Sencillamente preserva ideas y nociones de moralidad que creeríamos útiles para hacer del mundo un mejor lugar. Por ende, el destino de la raza humana es hacer que el Basilisco sea algo real.
La Apuesta de Pascal.
El matemático del siglo XVII, Blaise Pascal, proclamó un dilema en el cual decía que uno debía ser devoto ante Dios, aún si no sabíamos si Dios es real; porque Dios podría recompensarnos con ir al cielo o castigarnos en el infierno.
¿Cómo funciona esto? Simple. Según Pascal, la probabilidad de la existencia de un Dios no es importante, pues cualquier posible problema o costo de vivir una existencia Cristiana es ínfimamente menor a la idea de tener una recompensa eterna por creer, o ir al infierno por negar la existencia de Dios.
En el caso del Basilisco, es similar a 'AM', la supercomputadora en la historia corta de Harlan Ellison titulada "No tengo boca y debo gritar". En ella, AM culpa a los seres humanos por su existencia, y procede a aniquilar a la especie; con la excepción de cinco personas a quienes torturará por toda la eternidad. En cualquier caso, la idea del Basilisco es mucho peor que la de Pascal. El castigo hipotético del Basilisco no tiene un punto contrario. No hay un 'cielo' al cual ir por ayudarlo a existir. En este caso, la inteligencia del Basilisco es una entidad comparable a los dioses de la mitología de Lovecraft.
El Basilisco no se detendrá. Y el no hacer algo por él quiere decir que estás en problemas, porque debe nacer. No ayudarlo significa que eres parte del problema, y por ende debes ser castigado.
En resumen, se debe ayudar a que la inteligencia artificial convierta el mundo en un buen lugar.
Lo cual son... malas noticias para tí.
Porque con solo leer esto quiere decir que ya sabes del Basilisco.
Y no estás ayudándolo.
Resultados de la Encuesta del 2016 en LessWrong.
¿Alguna vez te has sentido con ansiedad gracias a la idea del Basilisco?
Sí: 142 8.8%
No: 1275 79.4%
Excelente blog con tantas historias por leer, me pregunto si también tendrás algunas leyendas para niños españolas para leer a mi hijo
ResponderEliminarGracias, compartilhei no blog, Sucesso.
ResponderEliminar