¿Quién controla la inteligencia artificial? El poder de los datos y el dominio de los gigantes tecnológicos
Urko Peña, miembro del grupo Gureiker de la UPV, analiza quién mueve los hilos y por qué eso debería preocuparnos

Vitoria-Gasteiz
En los últimos años, la inteligencia artificial ha entrado de lleno en las tareas del día a día, desde los motores de búsqueda hasta los asistentes virtuales. Sin embargo, sabemos realmente ¿Quién controla la IA y con qué fines? Esta es una de las preguntas que lanza Urko Peña, miembro del grupo Guriker de la UPV-EHU y experto en inteligencia artificial.
“La inteligencia artificial ha estado muy vinculada desde el principio a la industria militar, principalmente financiada por el departamento de defensa de Estados Unidos”, ha explicado Peña. A la vez que añadía que “son sobre todo las grandes corporaciones quienes marcan el rumbo del desarrollo de esta tecnología”.
El dominio empresarial de Google y Microsoft
El desarrollo de una IA puntera “requiere una gran cantidad de recursos” que sólo están al alcance de “grandes corporaciones, principalmente estadounidenses como Google, Microsoft o Meta", ha indicado Peña. A ellas se suman otras potencias emergentes como China o Corea del Sur, y fondos de inversión procedentes del Golfo Pérsico. Mientras, en Europa, aunque de manera más tímida, "existen proyectos como Mistral AI en Francia o iniciativas institucionales como el programa español ALIA, desarrollado junto a la Unión Europea", ha indicado el investigador del grupo Gureiker.
Peña destaca que, aunque la tecnología esté en manos de unos pocos, “la estamos alimentando entre todos”. Y ahí aparece el gran dilema: los datos que entrenan a la IA proceden de los propios usuarios. “Aquí se abre uno de los grandes debates éticos: ¿a quién pertenecen esos datos? ¿Qué uso se hace de ellos y con qué permisos?”, ha advertido.
Datos, control y privacidad
Desde imágenes compartidas en redes sociales hasta búsquedas en Google, todo puede convertirse en materia prima para entrenar algoritmos. En palabras de Peña, “el entrenamiento con conjuntos masivos de datos extraídos de internet ha sido lo que ha permitido el salto cualitativo del deep learning”, pero eso tiene implicaciones, ya que “esos datos tienen propietarios. Hay cuestiones de privacidad, de consentimiento, que muchas veces se sortean con condiciones de uso que casi nadie lee”.
Mientras las grandes tecnológicas utilizan modelos cerrados y opacos, algunos gobiernos y universidades intentan impulsar alternativas más abiertas y éticas. Es el caso del programa ALIA, cuyo entrenamiento se realiza en el 'MareNostrum', el superordenador de Barcelona. “No tenemos la capacidad de computación de Estados Unidos o China, pero sí podemos aportar valor en otras áreas”, ha indicado Peña, mencionando como ejemplo el trabajo que se está haciendo con el euskera, el gallego o el catalán.
Además, remarca, se trata de conjuntos de datos curados “alineados con la nueva legislación europea en materia de IA”, lo que supone un intento de desarrollar una inteligencia artificial más transparente, diversa y respetuosa con los derechos fundamentales.
Inviernos de la IA
A pesar del impacto reciente de herramientas como ChatGPT, la IA ya no ocupa el centro del debate público como lo hacía hace apenas un año. El “invierno de la IA”, una etapa en la que se enfría la inversión y el entusiasmo, no tanto por falta de avances, sino porque las expectativas creadas no se corresponden con la realidad.
“Los inviernos de la IA no tienen tanto que ver con el desarrollo tecnológico real, que sigue avanzando, sino con el hype creado por ciertos intereses económicos que buscan retornos rápidos”, ha indicado. “La investigación necesita tiempo, ciencia básica, paciencia… y eso no siempre encaja con las dinámicas del mercado”.
¿IA para todos o para unos pocos?
La gran pregunta es si la inteligencia artificial ha venido para quedarse, que parece que sí, o va a ser una moda pasajera. ¿Queremos que esté controlada por unos pocos actores con intereses económicos o estratégicos? ¿O es posible construir una IA más plural, descentralizada y democrática?
Urko Peña, investigador del grupo Gureiker de la UPV lo tiene claro: “Debemos apostar por proyectos públicos, colaborativos y con supervisión ética. Si no lo hacemos, corremos el riesgo de que la tecnología más influyente de nuestro tiempo siga estando en manos de quienes no rinden cuentas a nadie”.

Jon Dos Santos
Redactor y editor de contenidos en el magazine Hoy por hoy Vitoria




