top of page
Buscar

AI Act: Lo esencial que toda empresa debe saber

  • apuntiturull
  • 24 nov 2025
  • 6 Min. de lectura

Actualizado: 6 dic 2025

Europa ha lanzado el primer marco regulatorio completo del mundo para la inteligencia artificial.


La Ley de IA es ambiciosa, contundente e ineludible. Tanto si estás experimentando con ChatGPT, integrando herramientas de IA de terceros como si estás construyendo tus propios productos, la regulación se te aplica.


Lo que muchas empresas no saben es que desde el 1 de agosto de 2024 la Ley de IA ya está en vigor. Eso no significa que todas las obligaciones apliquen de un día para otro, existe un calendario progresivo, pero la cuenta atrás ha empezado: algunas prácticas prohibidas se vetarán en cuestión de meses y las normas más estrictas para los sistemas de alto riesgo llegarán después.


Así que, ¿cuáles son las consecuencias hoy? ¿Debes actuar ya, incluso si “solo” usáis ChatGPT internamente?


Esta guía está diseñada para responder exactamente a eso: qué importa ahora, qué puede esperar y cómo evitar despertarte dentro de dos años con un problema de cumplimiento que podrías haber resuelto en días.


¿Qué es el AI Act y por qué afecta a todas las empresas?


El AI Act es una propuesta legislativa de la Unión Europea que regula el uso de la inteligencia artificial. La ley no se preocupa por si usas ChatGPT, un modelo interno pequeño o una API de terceros.


Lo que realmente importa es tu rol y lo que haces con la tecnología. La regulación traza una línea clara entre dos actores:


El proveedor - quien construye, entrena o empaqueta el sistema de IA.

Si tocas el motor, personalizas el modelo o distribuyes una solución, estás jugando en la liga alta del cumplimiento.


El usuario (deployer) - quien utiliza la IA dentro de la organización.

Si dependes de herramientas creadas por otros, eres usuario. Menos obligaciones, sí, pero también responsabilidades claras.



Y aquí está la parte que la mayoría de empresas pasa por alto:

El riesgo no viene del modelo - viene del caso de uso.


Un chatbot que explica la política de vacaciones: bajo riesgo.

Una herramienta de clasificación de documentos: inocente.

Una herramienta de clasificación que prioriza pacientes o candidatos: estrictamente regulada.



El mensaje es simple:

La Ley de IA obliga a las empresas a examinar no solo la tecnología, sino la intención y el impacto detrás de ella. Así que antes de preguntar “¿con qué debemos cumplir?”, pregúntate dos cosas que determinan todo lo que viene después:


  1. ¿Qué rol desempeñamos - proveedor o usuario?

  2. ¿Para qué usamos exactamente la IA y a quién afectan esas decisiones?


A partir de aquí se despliega toda la lógica regulatoria: obligaciones, transparencia, documentación, supervisión y riesgo.


Preguntas mas frequentes sobre AI Act


“No tengo ni idea de qué es la Ley de IA. ¿Qué regula?”


La Ley de IA regula cómo deben diseñarse, desplegarse y supervisarse los sistemas de IA en la UE.

Define qué cuenta como sistema de IA (Art. 3), establece normas para desarrolladores y usuarios, y garantiza transparencia, seguridad y supervisión humana. Se aplica a cualquier organización que use o proporcione IA dentro de la UE.


Referencia: AI Act Art. 3



“¿Qué pasa si una empresa no cumple con la Ley de IA?”


La Ley de IA no es un documento teórico: viene acompañada de un régimen sancionador muy real.

Las multas pueden ser extremadamente altas, especialmente para empresas medianas y grandes:


Prácticas prohibidas: hasta 35 millones de euros o el 7% de la facturación global anual, lo que sea mayor.

Infracciones graves: hasta 15 millones o el 3% de la facturación.

Información engañosa a autoridades: hasta 7,5 millones o el 1% de la facturación.


Para pymes y startups, se aplica el importe menor, pero las consecuencias siguen siendo severas: cierre de proyectos, pérdida de clientes y barreras para entrar en procesos de contratación pública o corporativa.



“Solo usamos ChatGPT internamente. ¿Nos afecta la Ley de IA?”


Sí, pero de forma ligera. Se os considera usuarios, no desarrolladores.

Vuestras principales obligaciones son:


● usar la herramienta de forma responsable,

● evitar subir datos sensibles o personales,

● aplicar supervisión y verificación básicas,

● crear una política interna de uso de IA generativa.


No necesitáis certificaciones ni auditorías en esta fase.

“Usamos varias herramientas de IA de terceros. ¿Qué exige la Ley de IA?”


Os convertís en usuarios responsables, lo que implica:


● asegurar que el proveedor ofrezca instrucciones de uso claras y limitaciones,

● formar a vuestro personal,

● monitorizar el sistema para detectar errores,

● asegurar que los datos que introducís sean adecuados,

● reportar incidentes si algo grave ocurre.


Usar IA no es pasivo: la empresa sigue siendo responsable.



“¿Qué cambios prácticos debe esperar mi empresa?”


Debéis prepararos para:


● documentar dónde y cómo usáis IA,

● definir políticas internas de IA,

● aumentar la transparencia en procesos impulsados por IA,

● aplicar supervisión humana cuando sea relevante,

● verificar a vuestros proveedores,

● preparar evidencia básica de cumplimiento.


Las organizaciones que desarrollan su propia IA deben, además, implementar gobernanza, controles de calidad y estructuras de documentación.



“¿Qué deben saber realmente los usuarios de IA en fases iniciales?”


Si estás experimentando con IA generativa, tus responsabilidades principales son:


● proteger los datos,

● supervisar las salidas,

● garantizar un uso ético,

● asegurar transparencia hacia los usuarios o empleados afectados.


No hay cumplimiento pesado todavía.



Cómo puede ayudarte SOMIA Solutions a cumplir el reglamento


La misión central de Somia es sencilla:

darte una plataforma donde el cumplimiento de la Ley de IA ya está integrado, para que puedas centrarte en crear valor —no en navegar regulación.

Usas la plataforma sabiendo que transparencia, trazabilidad y supervisión ya están preconfiguradas.


Registros automáticos y trazabilidad

Cada interacción, acción y decisión queda registrada.

Siempre tienes un historial completo listo para auditorías.


Validación humana cuando la necesites

Ya sea un flujo, un documento, un mensaje o una decisión, puedes activar aprobación humana a demanda.


Te guiamos en la definición de tus casos de uso

Somia te ayuda a entender, refinar y estructurar tus casos de uso, e implementarlos de forma segura en nuestra plataforma, alineados con la lógica de riesgo del AI Act.


Funciona con cualquier modelo de IA

OpenAI, DeepSeek, modelos open source…

Somia garantiza que salidas, registros y procesos cumplan la normativa europea, sin importar qué modelo haya debajo. Conoce mas sobre nuestros servicios



¿Quieres saber más?


Si quieres entender cómo Somia puede ayudar a tu empresa a usar IA de forma segura, responsable y alineada con la Ley de IA de la UE, solicita una demo.


Además de soluciones privadas, es importante destacar que gobiernos e instituciones públicas también están ofreciendo apoyo para que las empresas comprendan y adopten prácticas responsables de IA.



El OEIAC forma parte de la estrategia Catalonia.AI de la Generalitat de Catalunya y está dedicado a promover el uso ético y responsable de la IA en línea con la regulación vigente.

Junto con el Gobierno de Cataluña, el OEIAC ha lanzado el Manifest per una IA confiable, reforzando el compromiso con una IA segura, transparente y legalmente cumplidora.


Para las empresas, esto es crítico:

El OEIAC ofrece un marco gratuito de evaluación ética de IA, que permite a las organizaciones realizar una auditoría inicial de sus casos de uso.

Esto ayuda a entender riesgos, identificar brechas y alinear prácticas con expectativas éticas y regulatorias sin coste.



Conclusión


La llegada del AI Act no debe verse como una amenaza, sino como una oportunidad para mejorar la calidad y seguridad en el uso de tecnología. En Somia, creemos en una inteligencia artificial ética, controlada y útil para todos los tamaños de empresa.


Contar con agentes de ia adaptados al entorno legal permitirá que las empresas no solo eviten sanciones, sino que ganen eficiencia, reputación y sostenibilidad a largo plazo.




Aviso Legal

Esta publicación tiene únicamente fines informativos generales y no debe considerarse asesoramiento legal, técnico o profesional. No debe utilizarse como base para tomar decisiones o dejar de actuar en relación con situaciones específicas.

Cualquier decisión relativa al cumplimiento de la Ley de IA u otras regulaciones aplicables debe tomarse con asesoramiento profesional adaptado a las circunstancias particulares de cada organización.


La autora no asume ninguna responsabilidad por acciones realizadas o no realizadas basándose en la información contenida en este documento, ni por las consecuencias que puedan derivarse de su uso.

 
 
bottom of page