Stuart Russell, profesor de la Universidad de California en Berkeley, se ha dedicado al estudio de la ingenier??a artificial (IA) durante d??cadas.
Pero tambi??n es uno de sus cr??ticos m??s conocidos, al menos del modelo de IA al que todav??a ve como “est??ndar” en el mundo.
Rusell ha advertido que el modelo predominante de IA es, en su opini??n, una amenaza para la supervivencia de los seres humanos.
Pero, a diferencia de las tramas de pel??culas de Hollywood sobre el tema, no se trata de que estas tecnolog??as se vuelvan conscientes y se vuelvan contra nosotros.
La principal preocupaci??n de Russell es la forma c??mo sus desarrolladores humanos han programado esta inteligencia: tienen la tarea de optimizar sus tareas tanto como sea posible,??b??sicamente a cualquier costo
Y as?? se vuelven “ciegos” e indiferentes a los problemas (o, en ??ltima instancia, a la destrucci??n) que pueden causar a los humanos.
El genio sali?? de la botella
Para explicarle esto a BBC News Brasil, Russell utiliza la met??fora de un genio de una l??mpara que cumple los deseos de su maestro.
“Le pides al genio que te convierta en la persona m??s rica del mundo, y as?? sucede, pero solo porque el genio hizo que el resto de las personas desaparecieran”, dice.
“(En IA) construimos m??quinas con lo que yo llamo los modelos est??ndar: ellas reciben objetivos que tienen que lograr u optimizar, para los cuales encuentran la mejor soluci??n posible. Y luego llevan a cabo esa acci??n”.
Incluso si esta acci??n es, en la pr??ctica, perjudicial para los humanos, argumenta.
“Si construimos la IA para optimizar un objetivo fijo dado por nosotros, ellas (las m??quinas) ser??n como psic??patas, persiguiendo ese objetivo y siendo completamente ajenas a todo lo dem??s, incluso si les pedimos que se detengan”.
Un ejemplo cotidiano de esto, dice Russell, son los algoritmos que rigen a las redes sociales, que se han vuelto tan evidentes en los ??ltimos d??as con el colapso global que afect?? a Facebook, Instagram y WhatsApp durante unas seis horas.
La tarea principal de estos algoritmos es mejorar la experiencia del usuario en las redes sociales. Como, por ejemplo, recopilando la mayor informaci??n posible sobre ese usuario y proporcion??ndole contenido que se adapte a sus preferencias para que permanezcan conectados por m??s tiempo.
Incluso si esto se produce a expensas del bienestar del usuario o la ciudadan??a global, contin??a el investigador.

“Las redes sociales crean adicci??n, depresi??n, disfunci??n social, tal vez extremismo, polarizaci??n de la sociedad y, tal vez contribuyen a difundir desinformaci??n”, se??ala Russell.
“Y est?? claro que sus algoritmos est??n dise??ados para optimizar un objetivo: que las personas hagan clic, que pasen m??s tiempo enganchadas con el contenido”, contin??a.
“Y, al optimizar estas cantidades, podemos estar causando enormes problemas a la sociedad”.
No obstante, prosigue Russel, esos algoritmos no se someten a un escrutinio lo suficiente como para ser verificados o “arreglados”, por lo que siguen trabajando para optimizar su objetivo, indistintamente del da??o colateral.
“(Las redes sociales) no solo est??n optimizando lo incorrecto, sino que tambi??n est??n manipulando a las personas, porque al manipularlas consigue aumentar su compromiso. Y si puedo hacerte m??s predecible, por ejemplo, transform??ndote en un ecoterrorista extremo, puedo enviarte contenido ecoterrorista y asegurarme de que hagas clic para optimizar mis clics”.
Estas cr??ticas fueron reforzadas la semana pasada por la ex trabajadora de Facebook (y actual informante) Frances Haugen, quien testific?? ante una audiencia del Congreso de Estados Unidos.
Haugen dijo que las redes sociales “da??an a los ni??os, provocan divisiones y socavan la democracia”.
Facebook ha reaccionado diciendo que Haugen no tiene suficiente conocimiento para hacer tales afirmaciones.
IA con “valores humanos”
Russell, a su vez, explicar?? sus teor??as a una audiencia de investigadores brasileros el pr??ximo 13 de octubre durante una conferencia de la Academia Brasile??a de Ciencias de forma virtual.
El investigador, autor de “Compatibilidad Humana: Inteligencia artificial y el problema del control“, es considerado pionero en el campo al que ??l llama “inteligencia artificial compatible con la existencia humana”.

“Precisamos de un tipo completamente diferente al sistema de IA”, opina Russell.
Este tipo de IA, prosigue, tendr??a que “saber” que tiene limitaciones, que no puede cumplir sus objetivos a ning??n costo y que, incluso siendo una m??quina, puede estar errada.
“Har??a que esta inteligencia se comportase de un modo completamente diferente, m??s cautelosa (???), que va a pedir permiso antes de hacer algo cuando no tiene certeza de si es lo que queremos. Y, en un caso m??s extremo, que querr??a ser apagada para no hacer algo que nos va a perjudicar. Ese es mi mensaje principal”.
La teor??a defendida por Russell no forma parte de un consenso: hay quienes no consideran amenazante ese modelo vigente de IA.
Un ejemplo famoso de los dos lados de este debate ocurri?? algunos a??os atr??s, en una discusi??n p??blica entre los empresarios de tecnolog??a Mark Zuckerberg y Elon Musk.

Un reportaje de The New York Times se??ala que, en una cena ocurrida en 2014, los dos empresarios debatieron entre s??.
Musk apunt?? que el “realmente cre??a en el peligro” de la IA de volverse superior y subyugar a los humanos.
Zuckerberg, sin embargo, opin?? que Musk estaba siendo alarmista.
En una entrevista de ese mismo a??o, el creador de Facebook se consideraba un “optimista” en cuando a IA y afirm?? que los cr??ticos, como Musk, “estaban creando escenarios apocal??pticos e irresponsables”.
“Siempre que escucho a gente diciendo que la IA va a perjudicar a las personas en el futuro, pienso que la tecnolog??a generalmente puede ser usada para el bien o para el mal, y debes tener cuidado en c??mo la construyes y en c??mo va a ser usada. Pero encuentro cuestionable defender la ralentizaci??n del proceso de IA. No consigo entender eso”.
Musk ha argumentado que la IA es “potencialmente m??s peligrosa que las ojivas nucleares“.
Un lento e invisible desastre nuclear
Stuart Russell se suma a la preocupaci??n de Musk y tambi??n traza paralelos con los peligros de la carrera nuclear.
“Creo que muchos (especialistas en tecnolog??a) consideran este argumento (los peligros de la IA) amenazante porque b??sicamente dice que ‘la disciplina en la que hemos estado durante varias d??cadas es potencialmente un riesgo’. Algunas personas ven eso como lo contrario a la IA”, sustenta Russell.

“Mark Zuckerberg cree que los comentarios de Elon Musk son anti IA, pero eso me suena rid??culo. Es como decir que la advertencia de que una bomba nuclear podr??a explotar es un argumento anti f??sico. No es anti f??sico, es un complemento de la f??sica, por haber creado una tecnolog??a tan poderosa que puede destruir el mundo”.
“De hecho, tuvimos (los accidentes nucleares) de Chern??bil y Fukushima, y la industria fue diezmada porque no prest?? atenci??n suficiente a los riesgos. Entonces, si quieres obtener beneficios de la IA, tiene que prestar atenci??n a los riesgos”.
La actual falta de control sobre los algoritmos de las redes sociales, argumenta Russell, puede causar “enormes problemas para la sociedad” a escala global. Pero, a diferencia de un desastre nuclear, este es “lento y de modo casi invisible”.
??C??mo revertir entonces este curso?
Para Russell, puede ser necesario un redise??o completo de los algoritmos de las redes sociales. Pero, primero, es necesario conocerlos a fondo, opina.
“Descubrir qu?? causa la polarizaci??n”
Russell se??ala que en Facebook, por ejemplo, ni siquiera en el consejo independiente encargado de supervisar a la red social tiene acceso pleno al algoritmo que hace curadur??a del contenido visto por los usuarios.
“Pero hay un gran grupo de investigadores y un gran proyecto en marcha en la Global Partnership en AI (GPAI seg??n sus siglas en ingl??s), trabajando con una gran red social, que no puedo identificar, para obtener acceso a datos y hacer experimentos”, dice Russell.
“Lo principal es hacer experimentos con grupos de control, ver con las personas qu?? est?? causando la polarizaci??n social y depresi??n y (ver) si al cambiar el algoritmo mejora eso”.
“No le estoy diciendo a las personas que dejen de usar las redes sociales o que son inherentemente malvadas”, prosigue Russell.
“(El problema) es la forma c??mo los algoritmos funcionan, el uso de likes, de subir contenido (con base en las preferencias) o su eliminaci??n. El modo en c??mo el algoritmo escoge qu?? colocar en la pantalla parece basarse en m??tricas que son perjudiciales para las personas“.
“Por lo tanto, debemos poner el beneficio del usuario como objetivo principal y eso va a hacer que las cosas funcionen mejor y que la gente este feliz de usar sus sistemas”, sentencia.
No habr?? una respuesta ??nica sobre qu?? es “beneficioso”. Por lo tanto, argumenta el investigador, los algoritmos tendr??n que adaptar ese concepto para cada usuario individualmente, una tarea que, el propio Russell admite, no es nada f??cil.
“De hecho, esta (??rea de las redes sociales) ser?? una de las m??s dif??ciles donde se pondr?? en pr??ctica este nuevo modelo de IA”, afirma.
“Creo realmente tenemos que empezar todo desde cero. Es posible que acabemos entendiendo la diferencia entre manipulaci??n aceptable e inaceptable“.
Continua Russell: “Por ejemplo, en el sistema educativo, manipulamos a los ni??os para volverlos ciudadanos conocedores, capaces, exitosos y bien integrados. Y consideramos eso aceptable”.
“Pero si ese mismo proceso volviese a los ni??os terroristas, ser??a una manipulaci??n inaceptable. ??C??mo exactamente diferencias entre ambos? Es una cuesti??n muy dif??cil. Las redes sociales suscitan estos cuestionamientos bastante dif??ciles que hasta los fil??sofos tienen dificultades en responder”, dice el investigador.
BBC News