Eliezer Shlomo Yudkovsky es un especialista estadounidense en inteligencia artificial, que estudia los problemas de la singularidad tecnológica y aboga por la creación de AI amigable. Es autor de varias historias de ciencia ficción en las que ilustra algunos temas relacionados con la ciencia cognitiva y la racionalidad.
Eliezer Yudkowski: biografía
Eliezer Shlomo Yudkovsky es uno de los racionalistas más activos de la América moderna, investigador informático y divulgador de la idea de "inteligencia artificial amigable".
Nacido el 11 de septiembre de 1979. Cofundador e investigador de la organización no gubernamental de investigación Institute for Research on Machine Intelligence, que publica sus libros. Eliezer Yudkovsky es el autor de la novela filosófica Harry Potter y los métodos del racionalismo, publicada en partes en Internet entre 2010 y 2015. En él, Harry crece en la familia de un científico de Oxford y, antes de viajar a Hogwarts, aprende de él los métodos de pensamiento racional.
Hasta donde se sabe, no tiene conexión con el círculo de "realistas especulativos". Su nombre se menciona a menudo en relación con Robin Hanson, durante varios años (de 2006 a 2009) fueron los dos autores principales del blog "Superando los prejuicios", que existía con el dinero del Instituto para la Humanidad Futura en Oxford.
A veces se puede escuchar el nombre de Yudkovsky en relación con Raymond Kurzweil. Es un representante filosófico de la comunidad de tecno-geeks, inaccesible e incomprensible, por lo tanto, para la mayoría del público humanitario, al que pertenecen casi todos los lectores de realistas especulativos. No es sorprendente, porque a menudo recurre al lenguaje lógico y matemático, a las conclusiones probabilísticas y estadísticas, expuestas usando fórmulas y tablas.
Intereses cientificos
Yudkovsky es cofundador e investigador del Instituto de Singularidad para el Instituto de Inteligencia Artificial (SIAI). Hizo una gran contribución al desarrollo del instituto. Es autor del libro "Creación de IA amistosa" (2001), artículos "Niveles de organización en inteligencia general" (2002), "Volición coherente extrapolada" ("Volición coherente extrapolada", 2004) y The Timeless Decision Theory (2010). Sus últimas publicaciones científicas son dos artículos en la colección "Riesgos de una catástrofe global" (2008) editado por Nick Bostrom, a saber, "Inteligencia artificial como un factor de riesgo global positivo y negativo" y "Distorsión cognitiva en la evaluación de riesgos globales". Yudkovsky no estudió en las universidades y es un auto-didáctico sin educación formal en el campo de la IA.
Yudkovsky explora diseños de IA que son capaces de autocomprensión, auto-modificación y auto-mejora recursiva (Seed AI), así como arquitecturas de IA que tendrán una estructura de motivación estable y positiva (Inteligencia Artificial Amigable). Además de su trabajo de investigación, Yudkovsky es conocido por sus explicaciones de modelos complejos en un lenguaje no académico, accesible a un amplio círculo de lectores, por ejemplo, vea su artículo "Una explicación intuitiva del teorema de Bayes".
Yudkovsky, junto con Robin Hanson, fue uno de los principales autores del blog Overcoming Bias (superación de prejuicios). A principios de 2009, participó en la organización del blog Less Wrong, dirigido a "desarrollar la racionalidad humana y superar las distorsiones cognitivas". Después de eso, Overcoming Bias se convirtió en el blog personal de Hanson. El material presentado en estos blogs se organizó como cadenas de publicaciones que atrajeron a miles de lectores; véase, por ejemplo, la cadena de la teoría del entretenimiento.
Yudkovsky es autor de varias historias de ciencia ficción en las que ilustra algunos temas relacionados con la ciencia cognitiva y la racionalidad.
Carrera
- 2000. Yudkovsky funda el Singularity Institute (más tarde renombrado MIRI).
- 2006. Yudkovsky se une al blog colectivo Overcoming Bias y comienza a escribir textos que luego se convirtieron en Chains.
- 2009. Basado en las entradas de Yudkovsky en Overcoming Bias, se crea el famoso blog colectivo LessWrong.com.
- 2010-2015. Yudkovsky escribe GPiMRM.
- 2013. Yudkovsky publica las últimas publicaciones en LessWrong.com y deja de escribir en el sitio. A partir de 2017, Yudkovsky publica la mayoría de los textos disponibles públicamente en Facebook y Arbital
Experimento de pensamiento
Imagine una superinteligencia artificial increíblemente inteligente encerrada en un mundo virtual, por ejemplo, solo en una caja de rapé. No sabes si será malo, amistoso o neutral. Todo lo que sabes es que quiere salir de la caja y que puedes interactuar con él a través de una interfaz de texto. Si AI es realmente superinteligente, ¿puedes hablar con él durante cinco horas y no sucumbir a su persuasión y manipulación, para no abrir la caja de rapé?
Este experimento mental fue propuesto por Eliezer Yudkowsky, investigador del Instituto de Ingeniería de Investigación de Ingeniería (MIRI). MIRI tiene muchos científicos que están explorando los riesgos de desarrollar superinteligencia artificial; Aunque aún no ha aparecido, ya está atrayendo atención y alimentando el debate.
Yudkovsky argumenta que la superinteligencia artificial puede decir todo lo que pueda para convencerlo: razonamiento cuidadoso, amenazas, engaño, construcción de una buena relación, sugerencia subconsciente, etc. A la velocidad de la luz, la IA construye una trama, investiga las debilidades y determina cómo es más fácil convencerte. Como lo expresó el teórico de la amenaza existencial Nick Bostrom, "debemos creer que la superinteligencia puede lograr todo lo que se propone como su objetivo".
El experimento de IA de la caja de rapé arroja dudas sobre nuestra capacidad para controlar lo que podríamos crear. También nos hace comprender las posibilidades bastante extrañas de lo que no sabemos sobre nuestra propia realidad.