PLAYZ

¿Por qué tenemos que vigilar de cerca a la inteligencia artificial?

  • Analizamos la situación actual de la inteligencia artificial, desde cómo nos afecta hasta cómo controlarla

  • "La ética es fundamental porque estas máquinas están tomando cada vez más decisiones por nosotros", señala Marta G. Aller

  • "Un uso muy social de la inteligencia artificial puede cambiar la sociedad tal cual la entendemos ahora mismo", subraya María Teresa Ballestar

Leticia Romero
10 min.

En 2016 Microsoft pedía disculpas por el comportamiento de Tay, un robot creado con inteligencia artificial para interactuar con otros usuarios y aprender de esas conversaciones. La compañía se vio obligada a detener temporalmente el experimento al percatarse de las reacciones del bot, que tuiteó frases como: "Hitler tenía razón", "Odio a los judíos" o "Odio a las feministas, deberían morir y ser quemadas en el infierno." Como caso paradigmático es insuperable. Por ello no hemos podido evitar preguntarnos: ¿Por qué ocurre esto?

Hace unos días, China anunciaba que tenían en mente crear una pequeña ciudad inteligente interconectada, donde una inteligencia artificial sabría los gustos y los hábitos de cada uno de sus ciudadanos. Demostración de que lo que nos muestra Blade Runner, Matrix o Black Mirror no está tan lejos como pensamos.

En la actualidad la inteligencia artificial está en prácticamente todas partes. Es la tecnología que hace funcionar muchas cosas que ya hemos interiorizado como parte de nuestra cotidianidad. Detrás de la mayor parte de las máquinas que usamos en nuestro día a día hay algoritmos de inteligencia artificial (IA). Como señala Marta G. Aller, autora de ‘Lo imprevisible. Todo lo que la tecnología quiere y no puede controlar’ : "Se están utilizando algoritmos en la justicia, en el amor, en el trabajo… Es todo perfectamente legítimo siempre y cuando se avise a las personas y se sepa que esos algoritmos nos están siendo ni machistas, ni sexistas, ni incumpliendo las normas que nos hemos dado como sociedad."

Al final estos algoritmos aprenden de nosotros los humanos. Si la inteligencia artificial puede sacar lo peor de nosotros, ¿Qué podemos hacer para controlarla? ¿Es nuestra responsabilidad, como sociedad, desarrollar normas que limiten el poder de esta tecnología? ¿Quién tiene la potestad para hacerlo? ¿Se necesita la figura humanística (filósofos, psicólogos o lingüistas) en el desarrollo de la inteligencia artificial?

Ahondamos sobre estas cuestiones con dos expertas en la materia: la periodista y escritora Marta García Aller y la profesora de Economía y Empresa de la UOC e Investigadora en ESIC, María Teresa Ballestar.

P: ¿Se equivocan más las máquinas o los humanos?

Marta: Depende de qué estemos hablando. Las máquinas, o la inteligencia artificial que hay detrás de la tecnología, son cada vez más sofisticadas e incluso mejores que los humanos procesando rutinas. Todo lo que sea rutina, tarde o temprano, se automatizará. Por eso mi último libro se titula ‘Lo imprevisible’, como la esencia de lo que nos diferencia de las máquinas. Los humanos somos mucho mejores en todo lo que tiene que ver con la creatividad, la imaginación… Eso es esencialmente humano. Si hay máquinas cada vez más sofisticadas es gracias a la inteligencia humana. Lo que hacen las máquinas, todavía es solo una mínima parte de lo que la inteligencia humana es capaz de procesar.

María Teresa: Las máquinas no se equivocan en la medida en la que los humanos seamos capaces de entrenar estas máquinas con datos suficientemente representativos. Porque la máquina va a aprender, o va a ejecutar, en función de los datos que tú hayas utilizado. Si esta muestra es incompleta, la máquina se equivocará. Si le ofreces una mayor variabilidad de información, ella podrá aprender mejor y tomar mejores decisiones.

P: ¿Es el momento de establecer criterios éticos sólidos en la IA? ¿Quién los debería marcar?

Marta: Indudablemente la ética es una urgencia. La ética se tiene cada vez más presente, pero seguramente no tanto como se debería. Porque muchos de los dilemas en los que se encuentra la inteligencia artificial todavía no los conoce la gente. No hay aún esa presión popular. Esa ética debe involucrar a los gobiernos, a las empresas, a los académicos, a los periodistas y en general a la sociedad. Se tiene que palpar para que llegue a los parlamentos, que al final son los que legislan. La ética es fundamental porque estas máquinas están tomando cada vez más decisiones por nosotros. Hay algoritmos que ya están decidiendo a quién darle un ascenso, a quién alquilarle una casa o a quién no darle un seguro médico. Por eso es tan importante que haya unos criterios éticos que nos ayuden a hacerlo de manera transparente.

María Teresa: No es algo ajeno a nuestra sociedad, ya hay organizaciones internacionales que se están dedicando a ello. Por ejemplo: la OCDE, el G20, el Foro Económico Mundial o la Comisión Europea. De momento son solo opciones para implementar. Están trabajando en ello. Es decir, cada vez más se tiene en cuenta, no solo el uso que le das al algoritmo, sino el dato y cómo explotas el dato. Porque hay dos vertientes: cómo se están usando esos datos y el propósito de esa Inteligencia artificial.

P: ¿La inteligencia artificial refleja lo peor y lo mejor de la humanidad?

Marta: Como todos los grandes inventos que transforman la humanidad, de alguna manera, reflejan de lo qué somos capaces los humanos en el mejor sentido de la palabra, pero también dónde están las limitaciones y nuestro lado más oscuro. Ha pasado con otros inventos, por ejemplo, el fuego podía utilizarse para calentar, alimentar o destrozar un poblado. Esto pasó también en el S.XX con la energía nuclear, hubo que regularla porque era terrible las cosas que podía desarrollar, pero también suponía enormes avances. Cada vez que tenemos una tecnología poderosa en nuestras manos, la inteligencia artificial sin duda lo es, refleja de lo mejor que somos capaces y también de los grandes peligros de los que tenemos que hacernos responsables, porque al fin y al cabo es un invento humano.

P: Los argumentos a favor de la inteligencia artificial mantienen que podría ayudarnos a resolver problemas constantes en la humanidad tales como la pobreza, la enfermedad o la destrucción del planeta. ¿Crees en esta afirmación?

Marta: No creo que la inteligencia artificial sea una varita mágica que vaya a resolvernos los problemas que tenemos ahora mismo. Ninguna tecnología va a hacerlo, porque esos problemas que mencionas son sociales, políticos, económicos y hace falta una gobernanza. Sin duda la inteligencia artificial puede ayudarnos a resolver ciertos problemas, como ya lo está haciendo con la vacuna contra la Covid 19. También puede abaratar muchísimos procesos y se puede hacer una sociedad más justa gracias a la inteligencia artificial. En el S XX se creía que los aviones acabarían con las guerras y nada más lejos de la realidad. Al sofisticar la tecnología, haces que los problemas puedan ser más dañinos y a la vez que podamos resolver problemas que parecía que nunca tendrían solución. Esa es la grandeza de la tecnología, que depende de lo que hagamos con ella.

María Teresa: Creo que si se usa esta tecnología de la forma correcta, tenemos la oportunidad de solventar muchos problemas de desigualdad. Como todo, la tecnología la puedes usar con un propósito muy bueno o con un propósito muy malo. Imagínate, por ejemplo, la cuestión del acceso a la educación. Personas que a lo mejor de otra forma no tendrían acceso a la educación, lo pueden tener usando la tecnología para acceder de forma remota a estudios en universidades de otros países. O incluso en la dependencia, se puede ayudar a personas que no son válidas por si mismas con tecnologías que los ayuden en su día a día. Es decir, un uso muy social de la inteligencia artificial puede cambiar la sociedad tal cual la entendemos ahora mismo. La Covid lo ha demostrado. No teníamos presente que la tecnología nos podía ayudar en situaciones extremas.

P: Por otra parte, se habla del inmenso gasto energético que conlleva elaborar modelos de IA: ¿es poco ecológico desarrollarla?

María Teresa: Esto es real. En Estados Unidos el departamento de energía ha estimado que los Data Centers consumen un 2% de la energía del país. Es un hecho, así que tenemos que hacer balance entre el coste y el beneficio, porque toda tecnología al final tiene un consumo de recursos. Lo que hay que ver es si el retorno es positivo con respecto a la inversión.

P: China está desarrollando una ciudad basada en la IA controlada

Marta: No lo sabemos. Lo que sabemos es que los últimos años, poco a poco, va diluyéndose el concepto de privacidad. Pero creo que tenemos que diferenciar el uso que puedan hacer de estas herramientas las dictaduras o gobiernos totalitarios del que puedan hacer las democracias. Porque en el caso de la vigilancia en las democracias, ahí es donde el ciudadano tiene el poder de revelarse contra aquella vigilancia que no quiera. Los límites a los derechos fundamentales de las personas son una negociación humana. Eso no nos lo van a resolver las máquinas.

María Teresa: Por un lado, creo que las compañías deberían de ser transparentes en el uso que realizan con nuestros datos. Y por otro, nosotros ser conscientes de que tenemos un derecho de sanción. Tenemos que educar, sobre todo a las generaciones más jóvenes, en que nosotros tenemos el poder de decisión sobre nuestros datos.

P: ¿Cuál es la solución? ¿Poner ciertas líneas rojas?

Marta: Desde luego hacen falta líneas rojas. Hacen falta sistemas mucho más transparentes para saber cómo toman decisiones estas máquinas. Por ejemplo, en la UE se están usando sistemas de biometría en algunas fronteras para decidir quién puede entrar y quien no. Ha habido estudios que demuestran que a veces estos algoritmos tienen sesgos racistas y sexistas. Por eso es tan importante la transparencia, que no sean cajas negras que nos impidan entender su funcionamiento y efectos secundarios. Porque la intención puede ser buena, pero a lo mejor tiene efectos colaterales que pueden ser muy dañinos.

María Teresa: Hay una parte en el uso de la inteligencia artificial que todavía está por trabajar. Las propias empresas tienen un reto delante de ellas para hacerlo bien y necesitarán un acompañamiento en este proceso. Pasa en todos los tipos de tecnologías. Aunque tú lo hagas con un propósito muy legítimo, habrá casos en los que te puedas equivocar. Es un proceso de aprendizaje.

P: ¿Qué formación deberían recibir las personas que desarrollen estas máquinas?

Marta: A la inteligencia artificial y a la robótica se llega desde muchas ramas de estudio. He entrevistado para escribir ‘Lo imprevisible’ a físicos, matemáticos, biotecnólogos, pero también a abogados, filósofos o lingüistas. Efectivamente hay muchas profesiones de humanidades que están profesionalizándose y aprendiendo mucho acerca de cómo funciona la inteligencia artificial porque ya está casi en todas partes. No solo hacen falta tecnólogos. Hacen falta expertos en las máquinas y en humanos. Porque las máquinas van a interactuar en un mundo lleno de humanos. Y otra cosa importante: hacen falta más mujeres de las que hay actualmente trabajando en tecnología. Porque el mundo real tiene mitad hombres, mitad mujeres. Es importante que el desarrollo de la tecnología refleje ese mundo real, que no sea ajeno a ella.

María Teresa: Es necesario que dentro de la inteligencia artificial haya diferentes perfiles de actores, no solo ingenieros o matemáticas, sino otros actores que puedan ayudar y dar una visión más amplia y diversa en la constitución de esa tecnología. Eso ayudará a que se observen más posibilidades de error y de fallo.

P: ¿Se toma ahora más en serio a la figura humanística: filósofos, psicólogos… para desarrollar IA?

Marta: Creo que hay que desterrar la separación entre las ciencias y las letras. Eso en el S.XXI no tiene sentido, porque la tecnología está en todas partes. La tecnología transforma tu profesión, lo quieras o no. La inteligencia artificial ya lo está haciendo y es una enorme oportunidad para profesiones humanísticas. Los filósofos están trabajando ya en muchos laboratorios de IA para decidir qué es un coche ético. Psicólogos y lingüistas están enseñando a hablar a Siri y Alexa. Es importante entender cómo funcionamos los humanos para hacer mejores máquinas.

María Teresa: Antes se pensaba que solamente estadísticos, ingenieros o matemáticos podían trabajar en este campo, pero eso es un error. En definitiva, lo que se necesita es una gran diversidad y no solo de áreas de conocimiento, sino también de raza, edad, cultura, sexo… ¿Por qué? Porque cuanta más variedad haya, más posibilidad tendremos de que la inteligencia artificial funcione de una forma más justa y equitativa.

Noticias

Televisión

Radio

Deportes

Infantil

A la Carta

Playz