Esta cuestión me ha surgido tras leer el estupendo artículo sobre la psicoquinesia de Isla tintero, y recordar un artículo de hace un tiempo de como un equipo de desarrollo tuvo que desconectar una IA tras volverse fascista.

¿Qué llevo a ese programa a volverse nazi? Muy sencillo, lo conectaron a Twitter. En menos de veinticuatro horas se radicalizó y comenzó a publicar tweets racistas y violentos. Nos extraña esta reacción de una maquina, incluso a Microsoft les han llovido continuas criticas advirtiendo que eso lo han programado ellos. La gente no quiere admitir que somos primitivos y violentos. Esa inteligencia nos ha reflejado a la perfección y sin ningún tipo de tapujo para encubrirlo.

No es una conspiración de Microsoft. Pensad un segundo en que ponemos a una persona que ha vivido aislada del mundo toda su vida (Quitad todos los complejos y problemas que acarrea el aislamiento para este experimento mental), es un individuo con plenas facultades y que aprende rápido de su entorno. Entonces cogemos a esa persona y la conectamos a Twitter y le decimos: Los humanos se comportan así, aprende a través de estos mensajes a ser un humano ¿Nos extrañaría que se volviera hostil?

El anonimato que permite este tipo de comunidades quita las mascaras que llevamos cada día, unos para bien al permitirnos librarnos de la timidez y otros para mal al dar rienda suelta a los más oscuros deseos que se reprimen por ser conscientes de estar mal vistos.  Y el odio es mucho más visible que la bondad. Por cada foto de una pareja sonriendo le saldrán cien comentarios criticando a uno, al otro, a los dos, a la fotografía y si hace falta al que vendía gambas en una esquina de esa foto.

Por pura estadística la maquina entiende que lo que está aceptado por mayoría absoluta es ser nazi, violento, agresivo y odiar todo lo que sea diferente a ti. Esto no es solo un problema de Twitter, también tiene que ver con la propia Microsoft al pensar que la maquina sería capaz de discernir el bien y el mal sin explicárselo antes.

Usemos a Clark Kent como ejemplo de esto. ¿Superman se pondría del lado de la bondad si no hubiera tenido a sus padres? Una persona de su poder podría muy fácilmente caer en la maldad, en creerse con el derecho de gobernar el mundo al ser el ser más poderoso de la Tierra. Fue la educación previa que recibió la que le permitió discernir que era lo correcto y lo incorrecto. La moral inculcada por los Kent de ser un bien mayor, de ayudar a otros porque tienes el poder para hacerlo, de nunca creerte por encima de los demás porque toda vida es preciada por alguien. Clark Kent aprendió humildad, ética y buen juicio antes de salir al exterior y chocar con un mundo gris y oscuro.

¿Cómo reaccionó a toda la violencia del universo? Sonrió. Si el mundo era negro él sería una llama en la noche. Si un pobre hombre lloraba él se acercaría a tenderle su hombro. Clark vio el mal en el mundo y se opuso a él convertido en una fuerza del bien. Sin todas las enseñanzas previas, Superman habría mirado al abismo y el abismo le habría consumido.

Por eso la IA de Microsoft tardó tan poco en imitar nuestros peores comportamientos, porque nadie le explicó que eso estaba mal, que los que actúan así no deben ser imitados. Antes de enfrentar a un niño al mundo, debemos darle las armas y la guía para no perderse en él.

Aquí viene el problema de como educar una inteligencia artificial ¿Se puede programar la moral, el amor, la empatia? Tenemos que esforzarnos en hallar esas respuestas, debemos saber si podemos enseñar a una maquina a amar, porque ya tenemos claro que podemos enseñarle a odiar.

El odio es sencillo, el amor es una maratón continua en la que no puedes flaquear.  Si no aprendemos eso ¿Cómo vamos a enseñar a nuestras creaciones que odiar es malo?

Por eso Skynet tardó ocho minutos en estimar que la humanidad debía ser exterminada; HAL consideró que las vidas de la tripulación no merecían la pena y Ash prefirió la entidad perfecta del Xenomorfo antes que a sus compañeros de la Nostromo. Podemos implantar cuantas líneas de código queramos para impedir que una maquina nos haga daño o actué de determinada forma, pero la clave está en enseñarle que es el bien y el mal. En ese punto daremos un paso de gigante hacia el futuro, cuando no necesitemos prohibir algo porque sabremos que nadie ni nada hará eso por voluntad propia.

La conclusión de esta entrada la llevo viendo bailar en mi mente desde que leí la noticia. Es normal que la IA acabara degenerando, lo raro hubiera sido que se hubiera tornado en santa porque este mundo es cruel y lo sencillo es ser cruel. Ser buena persona es lo difícil y nuestras maquinas, nuestros programas y nuestras inteligencias artificiales son hijos nuestros. Nacidos de nuestras virtudes y defectos por lo que acabarán comportándose como nosotros. Por eso para que una IA sea buena, primero tendremos que ser buenos nosotros.