La conspiración de los bots de facebook



Cuando nos dicen que aún falta demasiado para que la inteligencia artificial pueda compararse a la inteligencia humana, ¿qué parámetros utilizamos? ¿Contra quién lo comparamos? mientras esperamos que la inteligencia artificial remplace al más respetado científico o al más brillante lingüista, ¿Cuántos oficios mecánicos e intermedios habrán sido superados? y más allá de su inteligencia, ¿qué sucederá con el lugar de esos seres humanos desechados por un aparato económico automatizado? lo cierto es que la inteligencia artificial no necesita ser más inteligente que nosotros para dejarnos sin trabajo. Un buen montón de empleos pueden remplazarse con robots que no sean más inteligentes que una cucaracha. Y aún con la inteligencia de una cucaracha serán más eficientes por el simple hecho de ser robots. No dormirán, no comerán, no necesitarán seguridad social, no se cansarán, no necesitarán cumplir con los parámetros creativos de la inteligencia humana porque sus trabajos perfectamente pueden reducirse a algoritmos, no necesitan imaginación, ni autenticidad, ni grandes y complejas decisiones, lo que a la larga generará un impacto negativo en la economía, un impacto mucho más poderoso  y terrible que aquel drama humano generado por la revolución industrial. Así que la pregunta es, ¿para quién trabajarán los robots? ¿A dónde irán los beneficios de todos esos empleos que desaparecerán? grandes empresas reducirán sus empleados y así perderemos una de los elementos liberales más importantes de la riqueza; la socialización de beneficios, la creación colectiva y social del capital. Habrán menos empleos y se concentrará aún más el dinero. Y al otro lado ¿Qué harán esas personas remplazadas por robots? ¿De qué vivirán? ¿Caridad? ¡peor aún! si hay una progresiva disminución de empleos, ¿Quién comprará los productos que esos robots generen? Una vez un amplio porcentaje de empleos sea remplazado por robots, ¿no colapsaría un capitalismo sin consumidores?

Personas muy bien intencionadas han procurado aplacar la voz de alarma de los medios cuando Facebook apagó  sus dos bots por “crear su propio lenguaje”  a lo que quisiera realizar un par de observaciones

Ciertamente no conspiran contra nosotros, pero, ¿por qué un algoritmo cuya única finalidad es optimizar resultados abandonó  los parámetros del idioma que heredó de los seres humanos? ¿Qué hay de poco óptimo en el inglés?  ¿Por qué decidió repetir una abreviatura en vez de dar un símbolo único? (es decir, para el robot es más eficiente decir “quiero manzana manzana manzana manzana manzana” que decir “quiero cinco manzanas” la decisión humana de numerar, en mi opinión, sería la óptima, pero el  algoritmo tomó una decisión diferente y eso me resulta fascinante. Los ingenieros detrás de los robots han aclarado que lo único que hicieron realmente fue crear abreviaturas, pero las abreviaturas no eran exactamente “abreviaturas” si no formas distintas de simbolización, formas que el habla humana catalogaría como “ineficientes”)

Al respecto,  cito un artículo de gizmodo.com 



FastCo reportó que, cuando Facebook hizo que dos de estos semiinteligentes “bots” hablen entre ellos, los programadores cayeron en la cuenta de que cometieron un error: no haber incentivado a los chatbots a que se comuniquen según las reglas de un inglés comprensible para los humanos. En su intento por aprender el uno del otro, los “bots” conversaban entre ellos en abreviaturas que creaban —que se ve perturbador, pero solo es eso—.

“Los agentes dejarán de lado el lenguaje comprensible e inventarán sus palabras en código” dijo el investigador visitante del FAIR, Dhruv Batra. “Es como si yo dijese ‘el’ cinco veces; tú interpretarías que quiero cinco copias de este ítem. No es tan distinta de la forma en que las comunidades humanas crean abreviaturas”.

Es cierto que Facebook apagó la IA, pero no porque entrasen en pánico por haber liberado a un posible Skynet sacado del universo de Terminator. Mike Lewis, un investigador del FAIR, declaró para FastCo que solo habían decidido que “nuestro interés era diseñar dos ‘bots’ que pudiesen hablar con la gente”, no que lo hiciesen eficientemente entre ellos, así que decidió más bien exigirles que se escriban entre ellos de forma legible.



 Este proceso seguramente fue gradual, uno de los dos bots creó una abreviatura y el otro la comprendió y el proceso avanzó  (o podría haber avanzado) hasta que su comunicación fuese incomprensible para nosotros. Es decir; un error humano de programación generó una gramática distinta que ambos robots comprendieron al comunicarse bajo una lógica diferente a  la nuestra, ¿cómo es que esto no debería parecernos alarmante?

Esto me deja una sensación; por mínimo que sea, un error en el código de la IA hará que rápidamente  su razonamiento y lenguaje se nos salgan de control.

Comentarios