La red social trabaja con técnicas de ‘machine learning’ y rastrea contenidos malintencionados.
‘Fake news’:La línea entre verdad absoluta y mentira absoluta es muy poco clara, dice Quiñonero.Malos usos: El peligro de una inteligencia artificial en manos de organizaciones que no respetan la privacidad.
Abundan los motivos por los que Facebook está
permanentemente en el candelero. El más reciente es su controvertido proyecto
de criptomoneda . Y cuando no es la privacidad de los datos es otro asunto
recurrente: su penetración está siendo usada (y abusada) para la manipulación
política y la intoxicación informativa. Esta práctica, bautizada como fake
news, parece inmune a los intentos de frenarla.
Con las esperanzas iniciales en que la comunidad de
usuarios denunciaría los abusos, Facebook ha pecado de ingenuidad. Luego, el
fichaje de batallones de moderadores de contenidos no ha dado los resultados
esperados. ¿Pueden cambiar las cosas gracias a la Inteligencia Artificial (IA)
En gran medida depende de los esfuerzos del equipo global de científicos que
comanda Joaquín Quiñonero, director de Applied Machine Learning de Facebook.
“No hay duda de que estamos ante un grave problema
social, que va mucho más allá de Facebook (aunque, con 2.400 millones de
usuarios activos es un vector precioso para esos abusos). No existe una
respuesta equilibrada ni tampoco soluciones neutras”, reconoce Quiñonero. Su
razonamiento es el siguiente: cuando sobre una plataforma online se comparten
miles de millones de comunicaciones e incontables piezas de contenido “no hay
suficiente número de profesionales, o de individuos contratados al efecto, que
puedan revisarlos a tiempo e identificar violaciones a las normas”.
Y añade: “Hay poquísimos casos en los que la diferencia
entre verdad absoluta y mentira absoluta sea tan clara como uno quisiera
pensar; por esto mismo es esencial que la IA se combine con el buen juicio
humano fruto del conocimiento y la experiencia (…) Tenga en cuenta una
limitación fundamental de la IA: únicamente puede resolver tareas que se le
pide que resuelva y se le enseña a resolver”.
Un ejemplo. “Si alguien en algún lugar del mundo manipula
o altera levemente un contenido y si se vale de miles de cuentas falsas para
propagarlo en Facebook, es extremadamente difícil para una comunidad humana
encontrar la anomalía; en cambio, es muy fácil para la IA detectar la
alteración y los comportamientos repetitivos que generan esas cuentas” y
purgarlas.
La contribución de la IA consiste, pues, en identificar
patrones analizando sucesos que ocurren en un momento determinado, con la gran
cualidad de que puede hacerlo en una escala prácticamente infinita. Lo que la
IA no tiene –apunta– es capacidad de juicio para resolver situaciones
complejas. “La IA se especializa en aquello que puede hacer bien; cuando se
conjuga el cómputo hecho por humanos con el hecho por máquinas, el resultado es
impresionante”.
Entendido, pero ¿quién controla? “Los humanos,
naturalmente. Esta es la razón por la que se necesita tanta disciplina que te
haga saber cuándo la matemática no tiene la respuesta que buscas. Son procesos
que involucran a humanos y por tanto es la sociedad humana la que toma las
decisiones”. Un discurso que puede sorprender en alguien cuyo trabajo es
entrenar a máquinas para emular a los humanos.
Una de las controversias del momento, en la que los
grandes grupos tecnológicos discrepan públicamente, es el reconocimiento facial.
Cree Quiñonero que “para Facebook el tema es más sencillo que para otros porque
usamos la tecnología de manera transparente para el usuario, le damos el
control absoluto explicándole los límites de su privacidad”. No obstante,
Quiñonero pone el dedo en la llaga: “Deberíamos preguntarnos qué pasa cuando un
algoritmo de reconocimiento facial cae en manos de organizaciones, sean
públicas o privadas, no necesariamente ilegales, que no respetan esos
principios”.
El auge actual de modelos de negocio que se apoyan en la
IA está dando lugar a una notoria fuga de científicos desde la academia a la
empresa. Es un ciclo pendular que ya se ha visto en otros sectores, tranquiliza
Quiñonero: “Muchos de mis amigos investigadores que trabajan en la industria
mantienen su filiación universitaria y es muy posible que vuelvan a su origen
(…) Yo mismo podría volver algún día a la universidad”, concluye quien tras
graduarse en Madrid pasó por Cambridge y ha trabajado en Microsoft antes de su
fichaje por Facebook en el 2012.