Leo Zuckermann En los últimos días he leído varios artículos sobre el peligro de la inteligencia artificial (IA) para la humanidad. Ayer, por ejemplo, un grupo de mil líderes e investigadores del sector tecnológico solicitó una pausa de seis meses en el entrenamiento de los poderosos sistemas de IA. Argumentan que éstos podrían representar una potencial amenaza para la humanidad. En una carta abierta, afirman que estamos en “una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de forma fiable”. La declaración está firmada por el empresario Elon Musk y el cofundador de Apple, Steve Wozniak, entre otros. ¿El fin de la humanidad? ¿No estarán exagerando? El tema ya me había interesado desde hace mucho tiempo. En 2015 entrevisté a Nick Bostrom, filósofo de la Universidad de Oxford y experto en el fenómeno de la IA. Le pregunté cómo imaginar al mundo con esta nueva tecnología que, según él, revolucionaría por completo lo que hoy somos. Me respondió que, si hace 12 mil años le hubiéramos preguntado a un homo sapiens que solo comía plátanos cómo se imaginaba su mundo con una mejora tecnológica, hubiera respondido: “con más plátanos”. El sapiens no tenía la posibilidad de imaginar en ese entonces una computadora, un avión o un celular. Remató: todo lo que pueda yo responderte ahorita sobre el mundo con inteligencia artificial sería como el sapiens diciendo “más plátanos”. Así que no tenemos manera de imaginar las cosas que pueden surgir con la IA. En este sentido, Bostrom propuso ponerles límites a estos sistemas. Había que integrar en los algoritmos los valores universales humanos para evitar que las súper inteligencias atentaran en contra de sus creadores. Enseñarles, por ejemplo, que está prohibido matar. Es, sin duda, un tema fascinante, sobre todo ahora que empresas de tecnología ya lanzaron sistemas de inteligencia artificial al público. ¿Quiere decir esto que ya estamos en peligro de extinción tal y como lo alertan los mil signantes de la carta? Fui a buscar la respuesta precisamente a ChatGPT, sistema que ya está integrado al motor de búsqueda Bing de Microsoft. Después de registrarme, le pregunté: “¿Puede la inteligencia artificial acabar con la humanidad?”. A propósito, la cuestioné en español para, aparte de ver qué tan inteligente era, revisar qué tan bien escribía en nuestra lengua. Esta es la primera respuesta que obtuve: “Científicos de la Universidad de Sunshine Coast en Australia han planteado que la inteligencia artificial altamente desarrollada es capaz de destruir o causar daños catastróficos a la humanidad, incluso sin intención maligna. Un grupo de expertos en inteligencia artificial y ejecutivos de la industria tecnológica pidieron una pausa de seis meses en el entrenamiento de los poderosos sistemas de inteligencia artificial, argumentando que se trata de una potencial amenaza para la humanidad. ¿Te gustaría saber más sobre este tema?” Así que, a la primera de cambios, me respondió sobre la carta arriba citada. No me pareció una respuesta muy sofisticada que digamos. Le solicité más información y me volvió a responder lo de la misiva. Una repetición a la segunda de cambios. Muy mal. Pedí más información y me dijo: “Científicos de Google y Oxford han realizado un estudio con el que han llegado a la conclusión de que es ‘probable’ que la IA acabe con la raza humana. Argumentan en su estudio que la IA avanzada acabará con los humanos porque las máquinas terminarán incentivándose para romper las reglas y competirán inevitablemente por sus necesidades energéticas, dado los escasos y limitados recursos de la Tierra”. Otra respuesta básica y con errores de sintaxis. Días antes había leído un editorial de Yuval Harari y otros alertando sobre el mismo tema. Entonces le cuestioné a Chat GPT sobre la postura del autor de Sapiens. Aquí la respuesta: “Harari afirma que los cerebros humanos serán pirateados pronto si no descubrimos cómo regular la inteligencia artificial. Los comentarios de Harari reflejan ciertamente los peores temores de la humanidad sobre la IA (…) Harari sugiere que la gran cantidad de datos que se recopilan ahora dará lugar a algoritmos cada vez más potentes que nos dirán todo, desde qué estudiar hasta con quién casarse”. Picado por la curiosidad, entonces le pregunté a Chat GPT con quién tengo que casarme. Esto me contestó: “No tienes que casarte con nadie si no quieres. La elección de una pareja para casarse es una decisión muy personal y depende de tus propios valores y deseos”. Con estas respuestas, francamente no veo a estos algoritmos poniendo en peligro a la humanidad. A lo mejor hay otros más sofisticados, pero los que están disponibles al público, no. Vacaciones Me tomaré un par de semanas de vacaciones por lo que Juegos de Poder se volverá a publicar hasta el lunes 17 de abril. Twitter: @leozuckermann