Inteligencia artificial, riesgos y amarillismo

Inteligencia artificial, riesgos y amarillismo Imagen superior: "Blade Runner 2049" © Sony Pictures.

La idea de una “inteligencia artificial”, creada por el ser humano, siempre ha causado temor. Las raíces de este temor se remontan al Gólem de la mitología judía, y pasan por el monstruo de Frankenstein: el primero creado de arcilla y animado por uno de los nombres de Dios; el segundo, a partir de cadáveres y vuelto a la vida gracias a la ciencia, mediante la electricidad. Ambos se revelan contra sus creadores y causan caos y destrucción.

Pero fue con el desarrollo de los primeros robots y computadoras electrónicas, y a través de la ficción literaria, cinematográfica y televisiva, que la idea de una inteligencia artificial que se rebelara para dominarnos o destruirnos pasó a formar parte del imaginario colectivo.

Sólo hasta hace relativamente poco la frase “inteligencia artificial” (que la Wikipedia define como “la capacidad de un agente de percibir su entorno y llevar a cabo acciones que maximicen sus posibilidades de éxito en algún objetivo o tarea”) comenzó a tener algún sentido.

Primero con cosas simples como que el navegador de internet o el programa de correo electrónico recordaran direcciones anteriormente usadas y las llenaran automáticamente. Luego, a través de sistemas como los de Google, Amazon o Facebook, que aprenden a reconocer nuestros hábitos y gustos y a hacernos recomendaciones acordes con ellos, o bien a identificar nuestra cara y las de nuestros conocidos en fotografías, con asombrosa precisión. Y posteriormente con “ayudantes digitales” como Siri, de Apple, o Cortana, de Microsoft, con los que se puede “conversar” de forma casi natural y obtener respuestas moderadamente satisfactorias y cada vez mejores. ¡Ah! Y no olvidemos al autocorrector de los smartphones, que tanta alegría nos da cada día. Por supuesto, en temas más serios, también se están desarrollando sistemas capaces de detectar un tumor en una radiografía o de conducir un auto.

Pero, como se ve, aunque lo logrado puede o no ser impactante, no parece ni con mucho amenazador.

Sin embargo, desde junio de 2017 ha circulado ampliamente una noticia que pareciera ser la primera señal de que amenazas como HAL 9000 de 2001: Odisea espacial o Skynet de Terminator podrían estar a la vuelta de la esquina: unos investigadores de Facebook que estaban trabajando con chatbots (programas de inteligencia artificial diseñados para comunicarse en lenguaje natural) a los que “entrenaban” para negociar entre ellos (lo cual logran, básicamente, por prueba y error), los dejaron sin supervisión y luego de un tiempo hallaron que habían comenzado a utilizar una derivación del idioma inglés que estaba dejando de ser comprensible para los humanos.

La noticia se exageró bastante en los medios, donde se afirmaba que se había tenido que “desconectar” a las inteligencias artificiales antes de que “se convirtieran en un sistema cerrado” y siguieran comunicándose entre ellas sin que los investigadores pudieran saber de qué hablaban. Suena casi como el inicio de la pesadilla, pero en realidad se trató de algo mucho más simple: el “nuevo lenguaje” desarrollado por los chatbots era más eficiente para comunicarse entre ellos, pero no para lograr su objetivo. Los programadores simplemente suspendieron el experimento para mejorar la programación y evitar que ocurrieran esas desviaciones.

Lo triste fue que quedó opacado lo que podría haber sido la verdadera nota: los bots descubrieron, por sí mismos, maneras de negociar que no tenían programadas pero que los humanos solemos usar, como fingir interés en algo para luego cederlo en una etapa posterior de la negociación, a cambio de otra cosa de mayor valor.

Lo cierto es que la posibilidad de que, con el tiempo, surjan inteligencias artificiales lo suficientemente avanzadas como para ser potencialmente peligrosas (e incluso conciencias artificiales, con los problemas éticos que esto traería aparejado) es casi inevitable. El punto es qué tan pronto podría suceder, y qué podríamos hacer para prevenir el riesgo.

El magnate Elon Musk, dueño de Tesla Motors, opina que el peligro es inminente y llega a decir cosas como que la gente no lo entenderá “hasta que vean robots por la calle matando gente”. Stephen Hawking, Bill Gates o Steve Wozniak comparten versiones más moderadas de sus temores. Otros, como Mark Zuckerberg, dueño de Facebook, con quien Musk tuvor una escaramuza al respecto, discrepan: “creo que quienes proponen estos escenarios de día del juicio son bastante irresponsables”, dijo Zuckerberg en respuesta a Musk. La mayor parte de la comunidad global de expertos en inteligencia artificial concuerdan con él.

De cualquier modo, es indudable que cierto riesgo existe. Quizá la solución sería imbuir estructuralmente en toda inteligencia artificial las famosas “tres leyes de la robótica” planteadas por el gran Isaac Asimov en sus novelas: “jamás dañar a un humano; jamás desobedecer a un humano; proteger su propia existencia”. Pero aunque enunciarlas es sencillo, programarlas en una moderna inteligencia artificial seria extraordinaria, monumentalmente complicado.

Aunque, ¿quién sabe? Por lo pronto, ya hay gente comenzando a trabajar en ello. Mientras tanto, sigamos disfrutando, o padeciendo, las “inteligencias” artificiales de las que podemos disponer cotidianamente, y esperemos a que mejoren lo suficiente como para dejar de ser una constante fuente de frustración y molestia.

Copyright del artículo © Martín Bonfil Olivera. Publicado previamente en "La Ciencia por Gusto" y reproducido en TheCult.es (Thesauro Cultural) con permiso del autor. Reservados todos los derechos.

Martín Bonfil Olivera

Martín Bonfil Olivera, mexicano, es químico farmacéutico biólogo y estudió la maestría en enseñanza e historia de la biología de la Facultad de Ciencias, ambas en la UNAM.

Desde 1990 se ha dedicado a la divulgación de la ciencia por escrito. Colaboró en los proyectos del museo de ciencias Universum y el Museo de la Luz, de la UNAM. Es autor de varios libros de divulgación científica y hasta 2008 fue editor de libros y del boletín El muégano divulgador.

Ha sido  profesor de la Facultad de Ciencias de la UNAM y la Escuela de Periodismo Carlos Septién García. Ha colaborado regularmente en varias revistas (Milenio, Cambio, Los universitarios) y periódicos (La Jornada, Crónica, Reforma). Actualmente escribe la columna semanal “La ciencia por gusto”, que aparece los miércoles en Milenio Diario (puede consultarse en el blog La Ciencia por Gusto), además de escribir mensualmente la columna “Ojo de mosca” para la revista ¿Cómo ves?

Ha colaborado también en el canal ForoTV y en los programas de radio Imagen en la Ciencia e Imagen Informativa, de Grupo Imagen, Hoy por hoy, de W Radio, y actualmente Ecléctico, en la estación de radio por internet Código Radio, del gobierno del DF, con cápsulas de ciencia.

En 2004 publicó el libro La ciencia por gusto, una invitación a la cultura científica (Paidós). Desde 2013 es miembro del comité editorial de la revista de divulgación científica Hypatia, del Consejo de Ciencia y Tecnología del Estado de Morelos (CCyTEM).

En 2005 recibió la Distinción Universidad Nacional para Jóvenes Académicos en el área de Creación Artística y Extensión de la Cultura.

Ha impartido numerosos cursos de divulgación escrita en casi todos los Estados de la República Mexicana.

Sitio Web: sites.google.com/site/mbonfil/

Social Profiles

logonegrolibros

  • La teoría de la relatividad de Urashima
    Escrito por
    La teoría de la relatividad de Urashima Lee mi versión del cuento en:El pescador Urashima En el cuento clásico japonés El pescador Urashima, su protagonista salva a una tortuga, que le invita a visitar el mundo de la reina de los mares. Ambos…
  • Una historia alternativa
    Escrito por
    Una historia alternativa Hidalgos y samurais: España y Japón en los siglos XVI y XVII (Alianza, 1991), de Juan Gil, es un libro informadísimo, curioso y divertido que cuenta las relaciones hispanojaponesas en los siglos XVI y XVII.…
  • Origen y evolución del ser humano
    Origen y evolución del ser humano "La biología precede, la cultura trasciende" (Francisco J. Ayala) La especie humana ha evolucionado de otras especies que no eran humanas. Para entender nuestra naturaleza, debemos conocer sus orígenes y su historia biológica.…

logonegrociencia

Cosmos: A Spacetime Odyssey © Fox

  • Luz blanca
    Luz blanca En una hoguera, una antorcha o una vela, la combustión del los compuestos de carbono e hidrógeno (celulosa de la madera, parafina) libera energía en forma de calor, principalmente, y también de luz: fotones. Es…
  • Julio Caro Baroja y las logomaquias
    Escrito por
    Julio Caro Baroja y las logomaquias Logomaquia: discusión en que se atiende a las palabras y no al fondo del asunto. Julio Caro Baroja es uno de mis historiadores favoritos. Sobrino de Pío Baroja, fue antropólogo, historiador, lingüista y folclorista. Considerado…

Cartelera

Cine clásico

logonegrofuturo2

Cosmos: A Spacetime Odyssey © Fox

  • Las mutaciones de los X–Men
    Las mutaciones de los X–Men Quienes disfrutamos de la ciencia ficción seria no podemos evitar el ligero malestar que nos ocasionan las películas y las historietas con supuestas explicaciones científicas que son más bien marañas de errores y malentendidos. En…

logonegrolibros

bae22, CC

logonegromusica

Namlai000, CC

  • A Mercadante le cae bien Pelayo
    Escrito por
    A Mercadante le cae bien Pelayo Pelagio, tragedia lírica en cuatro actos, fue la última obra escrita por Saverio Mercadante. Sin embargo, fue la penúltima en estrenarse (Roma 1857) ya que Virginia, sobre la conocida historia de esta heroína romana modelo…

logonegroecologia

Mathias Appel, CC

  • Caballos salvajes
    Escrito por
    Caballos salvajes El ser humano se ha revelado como el animal más poderoso del mundo, a tal extremo que ha creado su propio hábitat sobreponiéndose a su entorno original. Contribuyendo a su expansión y a sus descubrimientos,…

logonegrofuturo2

Petar Milošević, CC