Inteligencia y Seguridad Frente Externo En Profundidad Economia y Finanzas Transparencia
  En Parrilla Medio Ambiente Sociedad High Tech Contacto
En Profundidad  
 
20/10/2018 | IA - “Los datos que entregas acabarán por estrangularte en el sistema”

Ana Carbajosa

Ranga Yogeshwar, conocido divulgador en Alemania, alerta de la falta de control político y moral sobre muchas innovaciones de la era digital.

 

Ranga Yogeshwar (Luxemburgo, 1959) es una especie de canario en la mina, capaz de analizar y alertar de los desafíos que nos deparan las innovaciones. Él piensa que en el campo de la inteligencia artificial, innovamos sin ser capaces de comprender los sistemas que creamos y las consecuencias que pueden tener.

Pregunta. ¿Cómo nos está cambiando la innovación?

Respuesta. Hay cosas esenciales que permanecerán. No queremos vivir en un estado de miedo permanente, ni morir de hambre, pero hay que ver cómo nos ha cambiado por ejemplo la comunicación, qué pasa ahora en las familias. Cuando yo era joven y me iba de viaje era un tiempo de separación de mis padres, de crecer, pero ahora cuando los chicos se van, están conectados todo el tiempo con su familia. ¿Cómo va a influir esto en su personalidad? O las ecochambers, si te rodeas todo el tiempo de gente que piensa como tú, te encierras en una burbuja y eso también modela la personalidad. Me pregunto si acabaremos en una sociedad muy diferente, que no se parece nada a la idea de sociedad cohesionada que teníamos hasta ahora, sino una en la que sean islas con unas reglas elementales para relacionarnos.

P. La filosofía ha dedicado mucho tiempo a analizar la diferencia entre los humanos y los animales. ¿De las máquinas inteligentes, en qué nos diferenciaremos?

R. El desarrollo de la inteligencia artificial nos fuerza a repensar qué somos y qué nos hace humanos. Podemos perdonar, nos encantan las excepciones. Es decir, aspiramos a tratar a todo el mundo por igual, pero si es tu amigo, haces algo especial por él. A veces eres irracional. Fumas aunque no tenga sentido, las máquinas no hacen eso. Puede que gracias a la innovación acabemos replanteándonos cosas esenciales, como el estar enfocados hacia la productividad y el rendimiento económico; puede que haya transformaciones de las que ahora ni siquiera somos conscientes. Puede, por ejemplo, que vayamos hacia una era postextual en la que contemos y escuchemos historias en lugar de leer y escribir, que es un proceso muy complejo. Ahora ya no lees las instrucciones de un aparato, ves un tutorial. Tal vez, nuestra inteligencia puede disminuir porque la de las máquinas crezca.

P. No parece un futuro muy prometedor.

R. Yo soy optimista. Vemos, por ejemplo, que empezamos a querer pasar tiempo desconectados, lo que los británicos llaman digital detox [desintoxicación digital]. Al final, aprenderemos cómo utilizar bien la innovación. Nuestra relación con el progreso, para mí, es como los niños en Navidad: abren los paquetes y tratan de hacer funcionar el juguete. Cuando no lo consiguen, es cuando miran las instrucciones. Tratamos de ir muy rápido, pero ahora poco a poco estamos empezando a estudiar las instrucciones de la revolución digital. Los conquistadores llegaron a América, se hicieron con el lugar y mataron a los indígenas y esa es la misma mentalidad cowboy que vemos en la era digital. Google y Facebook son los conquistadores que se apoderan de los contenidos, pero estamos entrando en una fase en la que empezamos a civilizar estos contenidos y creo firmemente que seremos capaces de hacerlo. Estableceremos reglas, entenderemos tendencias y, tal vez, en los próximos años nos demos cuenta de que hay que partir los googles y los amazons porque sean demasiado grandes. Estableceremos reglas por las que no utilizaremos tecnologías que no entendamos completamente, porque habrá reacciones en contra. La historia nos demuestra que siempre hay un proceso de civilización. Al final será bueno, porque nos haremos las preguntas fundamentales y encontraremos respuestas mejores de las que habíamos encontrado hasta ahora.

P. Usted explica que nuestro futuro no es lineal, que no hay una continuidad desde el pasado, que hay disrupciones. ¿Qué consecuencias tiene este tipo de progreso?

R. La velocidad es una nueva cualidad. La electricidad, por ejemplo, se introdujo poco a poco o el teléfono, que tardó 75 años en llegar a 100 millones de usuarios. Antes había tiempo para adaptarse; era un proceso orgánico. A veces se tardaba incluso una o dos generaciones, lo que significaba que no era una intrusión en tu vida personal, porque era la siguiente generación la que lo tenía que gestionar. Ahora, si miramos a Facebook u otras redes sociales, o los teléfonos inteligentes, en apenas 11 años, todo el mundo tiene uno. Es decir, las cosas suceden de manera tan rápida que no hay tiempo para adaptarse de una manera civilizada. Las innovaciones se implantan y, de repente, nos damos cuenta de que necesitamos leyes. Empezamos a regular la privacidad, pero es un proceso muy lento comparado con la velocidad de la innovación. En la inteligencia artificial surgen multitud de dilemas éticos.

P. ¿Cómo pueden convivir los algoritmos y la ética?

R. Es un tema que va a estar muy presente, pero no se puede tratar de una forma tradicional porque la ética es cambiable. Hace 50 años, por ejemplo, se aceptaba que se pegara los hijos, pero cambiamos. Necesitamos trabajar con una ética que tenga en cuenta cómo nos va a cambiar la tecnología. Por ejemplo, nuestro concepto de privacidad no va a ser el mismo en unos años. Es una situación muy dinámica y como no podemos anticipar los cambios, tal vez haya que diseñar un proceso ético que continuamente cuestione y adapte las cosas.

P. ¿Es posible impedir que la moral y la ley vayan siempre por detrás?

R. Necesitamos una cultura en la que el progreso sea el resultado de un proceso de reflexión de la sociedad y no el resultado exclusivo de la ingeniería y los inversores. ¿Queremos tener máquinas que tomen decisiones cruciales? Y si las tenemos, ¿cómo de transparentes deben ser las decisiones? Me refiero, por ejemplo, al sesgo de los datos que proporcionas a los sistemas, porque el problema es que nadie comprende realmente cómo funcionan. No sabemos qué pasa en las capas más profundas y, por lo tanto, desconocemos si se adoptan las decisiones adecuadas. Por ejemplo, Google empezó a etiquetar fotos, pero de repente, las personas negras aparecían etiquetadas como gorilas, porque los datos que habían introducido en el sistema estaban sesgados, porque probablemente no habían suministrado suficientes imágenes de personas negras. En algunas aplicaciones no pasa nada por que haya errores, pero en las que están íntimamente ligadas con nuestra democracia, no es una opción. No se puede detener a alguien sin decirle exactamente por qué, no quiero que me detengan porque un algoritmo lo ordene. Al final, se reduce a la cuestión de si optamos por la correlación o por la causalidad, que es la base de nuestra democracia.

P. ¿A qué se refiere?

R. Establecemos y comercializamos sistemas a pesar de que no los comprendemos. No sabemos si son estables o sesgados. Todo va muy rápido. Estuve en una conferencia con jefes de recursos humanos y me explicaron que utilizaban inteligencia artificial para las entrevistas de trabajo. Tienen un sistema que analiza qué palabras utilizan los aspirantes para definir un perfil. Si utiliza ciertas palabras, concluyen que es un tipo optimista y proactivo o al revés. En Estados Unidos, por ejemplo, el sistema Compas predice si un detenido va a cometer un nuevo crimen a través de algoritmos. Lo que pasó fue que encontraron un sesgo importante hacia los detenidos negros, porque habían metido los datos sesgados. No me cansaré de decirlo: los datos son un problema.

Robots fuera del armario

Yogeshwar deja de hablar y muestra en el ordenador de su estudio una invención que da una idea de lo avanzado que está el procesamiento de voz. Una máquina pide una cita para ir a la peluquería haciéndose pasar por una persona y es capaz de mantener una conversación, respondiendo a las preguntas de la recepcionista. “Es inmoral. No puedes tener máquinas que se hacen pasar por humanos. Falta una reflexión ética. Los robots del futuro tienen que salir del armario y decir: 'Hola, soy un asistente de inteligencia artificial”.

P. Usted habla de velocidad y de complejidad. Mucha gente se siente alienada y rechaza un progreso que no comprende. Hay un movimiento reaccionario.

R. Hay que preguntarse cuál es nuestro objetivo. ¿Tener una sociedad digitalizada que nos haga la vida más fácil? o ¿ser más felices? Porque si queremos eso, puede que no haya mucha relación, porque poco a poco el ser humano se adentra en la categoría de las máquinas. Podemos acabar sometidos a la dictadura del comportamiento. Es decir, tu móvil, por ejemplo, controla el ejercicio que haces. Ya hay aseguradoras que te piden tus datos para calcular tu póliza. Dentro de cinco años veremos a un tipo corriendo por un parque y le preguntaremos si le gusta salir a correr y responderá que no, pero que tiene que hacerlo para que quede reflejado en sus datos. La libertad que se prometió puede terminar en justo lo contrario, en una dictadura de tu comportamiento. La libertad de comportarte como te de la gana, de beberte un vaso de vino por la noche, de fumarte un cigarro va a desaparecer porque todos los datos que entregas, acabarán estrangulándote en un sistema. Empieza con los seguros médicos y rápidamente se extiende a muchas otras áreas. Y eso genera un cierto sentimiento de desconfianza hacia el futuro, es la segunda fase de la era digital.

P. A usted también le preocupa la evolución de los medios de comunicación.

R. Los pilares de la democracia son los medios, el lugar donde se pone en ejecución y los medios se han vuelto populistas porque se rigen por los clics, por la audiencia medida con algoritmos que amplifican resultados. Ahora la pelea está por la atención no por las ideas. En un periodo de tiempo muy corto hemos visto un cambio en la prensa que desconcierta a mucha gente. Vemos muchos cambios en muy poco tiempo y nos hace plantearnos hacia dónde nos dirigimos, quién está controlando el cambio o si alguien lo está controlando. Para muchas personas, la respuesta es que el cambio se gestiona a sí mismo y sienten que ellos no tienen nada que aportar. Las élites no son capaces de comunicar la esencia de los cambios y la gente siente que vive en una democracia en la que no puede participar. Por eso, aunque a la gente le vaya bien, sienten cierto desasosiego y miedo fruto de la transformación, que afecta también a sus negocios. Porque igual han trabajado un montón de años para llegar a una posición y de repente eso no vale nada. Desconfían de la innovación y se entregan al populismo. Y culpan a los extranjeros, piensan que la solución es encerrarse como si viniera un huracán, que en realidad es la innovación. Es puro miedo.

P. ¿Puede hacer algo la política?

R. La política puede hacer mucho pero desafortunadamente la europea y alemana han hecho muy poco. La mayoría de los políticos no entienden lo que está pasando, son literalmente ignorantes. Yo les explico por ejemplo que la fisonomía de las ciudades va a cambiar por el monopolio de Amazon y que van a desaparecer las librerías y es algo en lo que ni han pensado. Hay una enorme ignorancia sobre el cambio más crucial que está sucediendo.

P. ¿Y la industria?

R. Viven enamorados de su pasado y no piensan en el futuro. En Estados Unidos, el 70% de las empresas tienen un jefe de transformación digital, que estudia cómo va a cambiar la empresa con la digitalización o si va a seguir existiendo. En Alemania, no llega al 20%. Aquí vienen las empresas extranjeras y se llevan a los jóvenes con más talento. Si miramos a EE UU y a China, nos damos cuenta de que Europa va a morir en el proceso de la innovación de inteligencia artificial. ¿Por qué nada nace en Europa con contadas excepciones? Le cedemos nuestros datos a EEUU y desde Snowden sabemos que nos tratan de manera diferente. Internet, la carta Magna de la era digital se creó para ser utilizado por todo el mundo y ahora lo único que vemos es negocio.

P. ¿Qué cambios geopolíticos va a traer la innovación?

R. Si analizamos de dónde van a venir los científicos en 2030, vemos que el 37% vendrá de China y el 1,4% de Alemania. Dejemos de creer que los chinos son estúpidos. Son muy innovadores y tienen ambición.

El País (Es) (España)

 



Otras Notas del Autor
fecha
Título
01/10/2015|
28/03/2014|
24/11/2012|
28/04/2011|
28/04/2011|
24/04/2011|
24/04/2011|
17/02/2011|
26/07/2010|
04/01/2009|
07/02/2008|

ver + notas
 
Center for the Study of the Presidency
Freedom House