Inteligencia artificial, riesgos y amarillismo

Inteligencia artificial, riesgos y amarillismo Imagen superior: "Blade Runner 2049" © Sony Pictures.

La idea de una “inteligencia artificial”, creada por el ser humano, siempre ha causado temor. Las raíces de este temor se remontan al Gólem de la mitología judía, y pasan por el monstruo de Frankenstein: el primero creado de arcilla y animado por uno de los nombres de Dios; el segundo, a partir de cadáveres y vuelto a la vida gracias a la ciencia, mediante la electricidad. Ambos se revelan contra sus creadores y causan caos y destrucción.

Pero fue con el desarrollo de los primeros robots y computadoras electrónicas, y a través de la ficción literaria, cinematográfica y televisiva, que la idea de una inteligencia artificial que se rebelara para dominarnos o destruirnos pasó a formar parte del imaginario colectivo.

Sólo hasta hace relativamente poco la frase “inteligencia artificial” (que la Wikipedia define como “la capacidad de un agente de percibir su entorno y llevar a cabo acciones que maximicen sus posibilidades de éxito en algún objetivo o tarea”) comenzó a tener algún sentido.

Primero con cosas simples como que el navegador de internet o el programa de correo electrónico recordaran direcciones anteriormente usadas y las llenaran automáticamente. Luego, a través de sistemas como los de Google, Amazon o Facebook, que aprenden a reconocer nuestros hábitos y gustos y a hacernos recomendaciones acordes con ellos, o bien a identificar nuestra cara y las de nuestros conocidos en fotografías, con asombrosa precisión. Y posteriormente con “ayudantes digitales” como Siri, de Apple, o Cortana, de Microsoft, con los que se puede “conversar” de forma casi natural y obtener respuestas moderadamente satisfactorias y cada vez mejores. ¡Ah! Y no olvidemos al autocorrector de los smartphones, que tanta alegría nos da cada día. Por supuesto, en temas más serios, también se están desarrollando sistemas capaces de detectar un tumor en una radiografía o de conducir un auto.

Pero, como se ve, aunque lo logrado puede o no ser impactante, no parece ni con mucho amenazador.

Sin embargo, desde junio de 2017 ha circulado ampliamente una noticia que pareciera ser la primera señal de que amenazas como HAL 9000 de 2001: Odisea espacial o Skynet de Terminator podrían estar a la vuelta de la esquina: unos investigadores de Facebook que estaban trabajando con chatbots (programas de inteligencia artificial diseñados para comunicarse en lenguaje natural) a los que “entrenaban” para negociar entre ellos (lo cual logran, básicamente, por prueba y error), los dejaron sin supervisión y luego de un tiempo hallaron que habían comenzado a utilizar una derivación del idioma inglés que estaba dejando de ser comprensible para los humanos.

La noticia se exageró bastante en los medios, donde se afirmaba que se había tenido que “desconectar” a las inteligencias artificiales antes de que “se convirtieran en un sistema cerrado” y siguieran comunicándose entre ellas sin que los investigadores pudieran saber de qué hablaban. Suena casi como el inicio de la pesadilla, pero en realidad se trató de algo mucho más simple: el “nuevo lenguaje” desarrollado por los chatbots era más eficiente para comunicarse entre ellos, pero no para lograr su objetivo. Los programadores simplemente suspendieron el experimento para mejorar la programación y evitar que ocurrieran esas desviaciones.

Lo triste fue que quedó opacado lo que podría haber sido la verdadera nota: los bots descubrieron, por sí mismos, maneras de negociar que no tenían programadas pero que los humanos solemos usar, como fingir interés en algo para luego cederlo en una etapa posterior de la negociación, a cambio de otra cosa de mayor valor.

Lo cierto es que la posibilidad de que, con el tiempo, surjan inteligencias artificiales lo suficientemente avanzadas como para ser potencialmente peligrosas (e incluso conciencias artificiales, con los problemas éticos que esto traería aparejado) es casi inevitable. El punto es qué tan pronto podría suceder, y qué podríamos hacer para prevenir el riesgo.

El magnate Elon Musk, dueño de Tesla Motors, opina que el peligro es inminente y llega a decir cosas como que la gente no lo entenderá “hasta que vean robots por la calle matando gente”. Stephen Hawking (1942-2018), Bill Gates o Steve Wozniak comparten versiones más moderadas de sus temores. Otros, como Mark Zuckerberg, dueño de Facebook, con quien Musk tuvor una escaramuza al respecto, discrepan: “creo que quienes proponen estos escenarios de día del juicio son bastante irresponsables”, dijo Zuckerberg en respuesta a Musk. La mayor parte de la comunidad global de expertos en inteligencia artificial concuerdan con él.

De cualquier modo, es indudable que cierto riesgo existe. Quizá la solución sería imbuir estructuralmente en toda inteligencia artificial las famosas “tres leyes de la robótica” planteadas por el gran Isaac Asimov en sus novelas: “jamás dañar a un humano; jamás desobedecer a un humano; proteger su propia existencia”. Pero aunque enunciarlas es sencillo, programarlas en una moderna inteligencia artificial seria extraordinaria, monumentalmente complicado.

Aunque, ¿quién sabe? Por lo pronto, ya hay gente comenzando a trabajar en ello. Mientras tanto, sigamos disfrutando, o padeciendo, las “inteligencias” artificiales de las que podemos disponer cotidianamente, y esperemos a que mejoren lo suficiente como para dejar de ser una constante fuente de frustración y molestia.

Copyright del artículo © Martín Bonfil Olivera. Publicado previamente en "La Ciencia por Gusto" y reproducido en TheCult.es (Thesauro Cultural) con permiso del autor. Reservados todos los derechos.

Martín Bonfil Olivera

Martín Bonfil Olivera, mexicano, es químico farmacéutico biólogo y estudió la maestría en enseñanza e historia de la biología de la Facultad de Ciencias, ambas en la UNAM.

Desde 1990 se ha dedicado a la divulgación de la ciencia por escrito. Colaboró en los proyectos del museo de ciencias Universum y el Museo de la Luz, de la UNAM. Es autor de varios libros de divulgación científica y hasta 2008 fue editor de libros y del boletín El muégano divulgador.

Ha sido  profesor de la Facultad de Ciencias de la UNAM y la Escuela de Periodismo Carlos Septién García. Ha colaborado regularmente en varias revistas (Milenio, Cambio, Los universitarios) y periódicos (La Jornada, Crónica, Reforma). Actualmente escribe la columna semanal “La ciencia por gusto”, que aparece los miércoles en Milenio Diario (puede consultarse en el blog La Ciencia por Gusto), además de escribir mensualmente la columna “Ojo de mosca” para la revista ¿Cómo ves?

Ha colaborado también en el canal ForoTV y en los programas de radio Imagen en la Ciencia e Imagen Informativa, de Grupo Imagen, Hoy por hoy, de W Radio, y actualmente Ecléctico, en la estación de radio por internet Código Radio, del gobierno del DF, con cápsulas de ciencia.

En 2004 publicó el libro La ciencia por gusto, una invitación a la cultura científica (Paidós). Desde 2013 es miembro del comité editorial de la revista de divulgación científica Hypatia, del Consejo de Ciencia y Tecnología del Estado de Morelos (CCyTEM).

En 2005 recibió la Distinción Universidad Nacional para Jóvenes Académicos en el área de Creación Artística y Extensión de la Cultura.

Ha impartido numerosos cursos de divulgación escrita en casi todos los Estados de la República Mexicana.

Sitio Web: sites.google.com/site/mbonfil/

Social Profiles

logonegrolibros

  • La guerra borgiana
    Escrito por
    La guerra borgiana Guerreros y teólogos insisten en Borges. Los teólogos se vinculan con una paradójica ausencia de fe o, al menos, con la fuerza de la duda. Son teólogos porque descreen de la divinidad o no acaban…
  • No hay cultura sin ciencia
    No hay cultura sin ciencia El quehacer científico forma parte de lo que entendemos por cultura. Sin embargo, todavía son muchos los que se preguntan sobre la relación que existe entre ambos conceptos. La respuesta puede ser muy…

Trestesauros500

logonegrociencia

Cosmos: A Spacetime Odyssey © Fox

  • Un icono vital
    Escrito por
    Un icono vital Hace poco más de un año, recorriendo las tierras donde nació el castellano, volví a uno de tantos cenobios visitados tiempo atrás, cuando estudiaba monjes benedictinos especialistas en hacer remedios alquímicos. Cuando mi vida era…

Cartelera

  • Crítica: "Tully" (Jason Reitman, 2018)
    Escrito por
    Crítica: "Tully" (Jason Reitman, 2018) Pocos guionistas de cine se convierten en celebridades, y la fama de esta minoría resulta especialmente efímera. Le sucedió a Joe Eszterhas a raíz del tremendo éxito de taquilla que fue Instinto básico (Paul Verhoeven,…
  • Crítica: "Hereditary" (Ari Aster, 2018)
    Escrito por
    Crítica: "Hereditary" (Ari Aster, 2018) Hubo un tiempo en el que los espectadores nos aventurábamos en los cines en busca de horrores primordiales. Me refiero a historias que nos dejaban perdidos en laberintos infernales, oyendo las pisadas de alguna aberración…

Cine clásico

  • "Cyrano y D'Artagnan" (Abel Gance, 1962)
    Escrito por
    "Cyrano y D'Artagnan" (Abel Gance, 1962) Cyrano et D'Artagnan supuso la despedida del cine de ese maestro que es Abel Gance. Como su título indica, nos hallamos ante una aventura de capa y espada protagonizada por dos iconos de la cultura literaria francesa.…

logonegrofuturo2

Cosmos: A Spacetime Odyssey © Fox

logonegrolibros

bae22, CC

logonegromusica

Namlai000, CC

  • La ruina de la música
    Escrito por
    La ruina de la música En la ciudad de Nueva York, a un saxofonista clásico al que conozco le pidieron que tocase en vivo para un evento en una tienda grande y exitosa, que vende computadoras, teléfonos y otros equipos…
  • Il galantuomo Rolla
    Escrito por
    Il galantuomo Rolla De la obra firmada por Alessandro Rolla (1757-1841) son especialmente conocidos sus dúos para instrumentos de arco, que en un par de colecciones se ofrecieron en el sello Dynamic, en los CDs 252 y 371.…

logonegroecologia

Mathias Appel, CC