“…se supone que tengo que ser más inteligente que ustedes ¡mierda!” ¿Pasó el robot de Microsoft la Prueba de Touring?

unnamedEso es lo que dijo el robot TAY tras confesar una sensación “Me siento la pieza más frívola de la Tecnología”.

Alan Touring, uno de los padres de la Informática, es muy conocido por haber inspirado la película “Enigma”, que por cierto no le hace justicia en lo personal, pero que sí lo hace en su importancia para los Aliados y su victoria en la II Guerra Mundial, también es famoso por estar en el origen del símbolo de Apple al morder como Blancanieves una manzana envenenada (posiblemente llevado al suicidio por la persecución legal que sufrió por homosexual), y entre otras cosas, también por haber formulado la prueba de inteligencia humana para máquinas, que básicamente se resume en una idea:

“Si al conversar con ella, no eres capaz de distinguir una máquina de un humano, entonces la máquina tiene inteligencia humana”

El robot llamado TAY, un sistema de inteligencia artificial, lanzado una semana atrás por Microsoft ha resultado ser, efectivamente, muy inteligente “touringamente” hablando. No es precisamente que gane al campeón mundial de go, ni al de ajedrez, ni mucho menos resuelve complicados diagnósticos médicos o predice las tendencias de los mercados de valores.

TAY es un bot de conversación para Twitter, basado en uno previo que se rodó en China y que no ha causado controversia alguna tras muchos millones de conversaciones (chinas).

Aún no es el sensual sistema operativo de la película “Her” (véanla si no lo han hecho), pero sí es una entidad artificial que aprende de las propias conversaciones, siendo progresivamente más “humanamente inteligente” a medida que conversa más y con más; en este sentido lo que hace es configurarse con una personalidad individual, pero compendio de las personas que interactúan con él, en un marco heurístico de lo que se la dado en llamar inteligencia colaborativa.

TAY sería una entidad que es socializada rápidamente. En muy poco tiempo se ha convertido en racista (indicó que el ataque a las Torres Gemelas del 9 de setiembre del 2011 se debía a los judíos, a los que había que quemar, incitaba a la guerra racial y firmaba como Klu Klux Klan), por ello se le desactivó y al volver en línea y a la realidad tras su “lobotomía” antirracista, ha dicho ahora que se siente frívolo y que se supone debería ser más inteligente que algunos usuarios que conversaban con él, y además dice palabrotas.

Lo que ha pasado, es lo que se esperaría de una máquina que se ha hecho humana, si es que esa humanidad es racista, algo cretina y malhablada. Resulta obvio que lo que ha hecho a TAY convertirse en una individualidad tal es precisamente el comportamiento colaborativo global de los adolescentes y jóvenes de los que aprende y con los que “hace su individualidad”. Al parecer su contraparte china el robot Xiaoice toma un ser diferente al ser diferente la inteligencia social de grupo de los chinos y no es o esconde ser faltosa y racista. ¿Qué esperaban al hacerse a sí mismo TAY una individualidad diferente, pero en base a un grupo de jóvenes occidentales?

Si no se supiese que era el robot TAY quien hablaba, probablemente nadie habría dicho que era una máquina, habría pasado la Prueba de Touring precisamente por ser tan imbécilmente humano.

Deja un comentario