El próximo 30 de noviembre se cumplen tres años desde el lanzamiento de ChatGPT. Desde 2022, la inteligencia artificial (IA) ha pasado de ser una herramienta de trabajo para unos pocos ingenieros, técnicos y programadores a convertirse en un compañero de vida para millones de personas.
Pero la IA no solo tiene centenares de millones de usuarios. Es también un negocio milmillonario. Según datos de la consultora Statista, el mercado mundial de la inteligencia artificial supera actualmente los 190.000 millones de dólares, una cifra cercana al producto interior bruto de Portugal. En los últimos dos años, el número de sistemas de IA generativa (capaces de crear imágenes, vídeos o audios) disponibles de cara al público se han multiplicado por siete, según datos de Gartner.
Ante esta revolución tecnológica, la regulación, como suele ser habitual, va por detrás, y en algunos países ni siquiera se ha empezado a crear un marco normativo. Según la OCDE, tan solo un 20% de los gobiernos dispone de una ley o una estrategia nacional sobre inteligencia artificial.
Esta desregulación es, para muchos expertos, una preocupación de primer orden. "No se está haciendo lo suficiente desde el punto de vista legal para actuar contra este fenómeno porque todavía no se conocen bien las dimensiones de este fenómeno, pero por supuesto que hay que regular la inteligencia artificial. Pero, sobre todo, lo que hay es que fomentar un pensamiento crítico y unas redes de confianza en las que la gente pueda encontrar algo a lo que atenerse porque lo más peligroso de la desinformación no es que nos creamos las mentiras, sino que desconfiemos de todo porque no nos creamos nada", asegura Marta García Aller, periodista de 'El Confidencial' y colaboradora de laSexta.
La UE, pionera con el AI Act
La Unión Europea se ha convertido en la primera organización en regular este tecnología. En 2024 aprobó la Ley de Inteligencia Artificial (AI Act), la primera norma integral de este tipo. Esta norma cataloga a los distintos sistemas según su nivel de riesgo para los usuarios.
Los sistemas de bajo riesgo (como filtros de spam o asistentes virtuales) pueden operar sin restricciones, mientas que los de riesgo limitado, como los bots o las IAs generativas, deberán informar claramente a los usuarios de que están interactuando con una máquina. Por su parte, aquellos sistemas que sean considerados de alto riesgo, entre ellos los que se aplican en justicia, sanidad, educación o vigilancia, estarán sometidos a auditorías, controles de transparencia y registro obligatorio. Además, la ley prohíbe expresamente el uso de tecnologías de vigilancia biométrica masiva, la manipulación subliminal de personas o los sistemas de puntuación social.
Esta regulación comenzará a aplicarse plenamente en 2026 y contempla multas que pueden llegar a los 35 millones de euros o el 7% de la facturación global de la empresa infractora en los casos de incumplimientos graves. El objetivo de la ley, según detalló la propia Comisión Europea en la exposición de motivos de esta norma, es que la inteligencia artificial esté "bajo control humano".
Una regulación insuficiente
No obstante, esta regulación es insuficiente para muchos expertos, que aseguran que, entre otras cosas, se deben hacer controles de edad para que los menores tengan limitaciones en el uso de la IA. "El inicio uso de la inteligencia artificial por parte de los menores debería producirse en una edad no anterior a los 14 años, y siempre con supervisión", explica José Antonio Luengo, psicólogo educativo y sanitario y catedrático de Enseñanza Secundaria en la especialidad de Orientación educativa.
Una postura que también defiende Silvia Álava, doctora en Psicología Clínica y de la Salud y profesora universitaria, que detalla la importancia de apartar la tecnología de las primeras etapas de la vida para evitar que interfiera en la socialización: "A nivel emocional, necesitamos vínculos de calidad y un sentido de pertenencia, y tenemos un problema cuando le contamos nuestros problemas a la IA en vez de a nuestros amigos, porque no tenemos ese vínculo".
EEUU se niega a regular la IA
Como suele ser habitual con todos los avances tecnológicos, Estados Unidos es más reticente que Europa a establecer límites legales a la inteligencia artificial. Pese a que una treintena de estados han presentado proyectos de ley, el país mantiene una regulación fragmentada y centrada en sectores concretos y no existe una ley federal específica, por lo que la IA opera con normas distintas en cada territorio.
Dentro de EEUU, California y Nueva York son los estados más activos, con normas que limitan el uso de IA en el ámbito laboral y el reconocimiento facial. Mientras tanto, el presupuesto federal destinado a investigación en IA creció un 43% entre 2022 y 2024, hasta alcanzar los 3.000 millones de dólares, según la National Science Foundation, aunque no ha actuado de forma clara.
Sin embargo, en 2023, la Casa Blanca publicó la AI Bill of Rights, una declaración de principios que defiende cinco derechos básicos frente a los sistemas automatizados: privacidad, transparencia, seguridad, equidad y supervisión humana. No es vinculante, pero orienta las políticas públicas y la contratación gubernamental como si de un código deontológico se tratase.
En ese sentido, los legisladores españoles coinciden en que es fundamental tener códigos éticos en la aplicación de la IA. Laura Marrón, directora general de BAIC (Basque Artificial Intelligence Center), defiende que "el foco empresarial de la tecnología tiene que venir de la mano de un cumplimiento legal y ético", y sostiene que es especialmente importante la protección de garantizar la privacidad de los usuarios. "Solo si cumplimos todo esto y colaboramos, estaremos en disposición de que este cambio se integre en nuestras organizaciones", añade al respecto.
La IA, a debate en Metafuturo
La cuestión de la inteligencia artificial y todo lo relacionado con esta tecnología y los futuros retos a los que se enfrentará la sociedad se debatirán en Metafuturo, el foro de reflexión de Atresmedia, entre el 17 y el 21 de noviembre.
Más Noticias
-
Metafuturo se consolida como cita clave al reunir a líderes políticos, empresariales y culturales para abordar el impacto de la IA
-
González Laya pide limitar el "negocio de la polarización" de las plataformas digitales: "Nos jugamos nuestro futuro"
-
Salman Rushdie carga contra Donald Trump: "Estados Unidos está en manos de un niño viejo y gordo"
-
Jesús Badenes del Río (Grupo Planeta): "El libro es el departamento I+D de la industria audiovisual"
-
Carlos Gallego (Institut de Diagnòstic per la Imatge): "La IA debe ser un actor más del sistema sanitario"
.

