
Lo que necesitas saber de la Nueva Ley de Inteligencia Artificial en España
Vale, vamos a hablar claro: cada vez usamos más la IA para todo, sin una ley de inteligencia artifical que lo regule. Desde escribir textos hasta generar imágenes, optimizar campañas, chatear con clientes o analizar datos.
Pero claro, no es el lejano oeste. O no debería serlo.
Por eso me parece clave que hablemos del nuevo anteproyecto de Ley para el buen uso y la gobernanza de la Inteligencia Artificial en España. Una ley que no es solo para las grandes tecnológicas. Es para ti, para mí, para cualquier profesional o negocio que use IA.
Hoy te voy a contar en cristiano de qué va esta nueva ley que se espera aprobar tras el verano. Sin rollos innecesarios, pero sin perder el rigor.
Porque saber esto no es opcional si quieres trabajar con IA de forma responsable y sin meterte en líos.
- ¿Por qué necesitamos una ley de IA?
- El contexto europeo: no estamos solos
- La AESIA: la policía (y asesora) de la IA
- Lo esencial del anteproyecto de ley explicado fácil
- Más allá del anteproyecto: qué otras normas aplican
- ¿Y cómo me afecta si uso IA en mi negocio?
- Riesgos reales para la protección de datos
- El problema del sesgo y la discriminación
- Y ahora, ¿qué hacemos?
- Reflexión
¿Por qué necesitamos una ley de Inteligencia Artificial?
Empezamos por la gran pregunta. ¿Por qué legislar algo que se supone tan innovador y “libre”?
La respuesta es sencilla: porque la IA ya está transformando cómo trabajamos, cómo nos comunicamos y hasta cómo tomamos decisiones.
Y también porque no está exenta de riesgos: sesgos, discriminación, invasión de privacidad, manipulación, suplantación de identidad.
No hablamos de ciencia ficción. Hablamos de problemas muy reales.
Así que igual que nadie conduciría sin carné, ni vendería alimentos sin controles, la IA necesita reglas. Y estas deben estar recogidas de manera clara en una ley de inteligencia artificial.
El contexto europeo: no estamos solos
Para entender la ley española, hay que mirar a Europa.
El Reglamento Europeo de IA (2024/1689) ya está en vigor. Es la primera ley en el mundo que regula de forma integral la IA, con un enfoque basado en el riesgo.
España tiene que adaptarse y transponerlo. Así que nuestro Anteproyecto de Ley para el buen uso de la IA es, en esencia, la forma de aplicarlo aquí con un marco propio.
Pero no se queda en copiar y pegar. Incluye elementos adicionales para nuestro contexto y crea algo clave: la AESIA.
La AESIA: la policía (y asesora) de la IA
La Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) será el organismo que supervise el uso de IA en España.
No solo para castigar. También para formar, asesorar y guiar.
Tendrá su sede en A Coruña (sí, en Galicia, y a mí eso me hace ilusión).
El objetivo es que no haya un mercado de IA “sin ley”, sino un ecosistema seguro, donde empresas, administraciones y ciudadanos sepan a qué atenerse.
Lo esencial del anteproyecto de ley explicado fácil
El texto de la ley de inteligencia artificial es largo y a veces farragoso. Vamos a aterrizarlo.
La ley divide los sistemas de IA en niveles de riesgo. Y según el riesgo, impone más o menos obligaciones.
Lo que estará prohibido
Aquí el legislador no se anda con rodeos.
Quedan prohibidas las aplicaciones consideradas de riesgo inaceptable.
Hablo de cosas como:
- Reconocimiento facial en tiempo real sin orden judicial.
- Sistemas de puntuación social al estilo Black Mirror.
- Manipulación subliminal de comportamientos.
- Deepfakes sin etiquetado claro.
No hay margen de maniobra. Si lo haces, te arriesgas a multas muy gordas.
Alto riesgo: vigilancia y control
El anteproyecto recoge la categoría europea de IA de alto riesgo.
¿A qué se refiere?
A sistemas que influyen en decisiones críticas: salud, justicia, educación, selección de personal, transporte, infraestructuras clave.
Si trabajas con IA en estos ámbitos, la ley te va a pedir cosas como:
- Evaluación de impacto antes de usarla.
- Supervisión humana real.
- Transparencia y explicaciones claras.
- Registro de uso y decisiones.
Nada de “le pregunté al chatbot y le hice caso”. Tiene que haber humanos revisando.
Bajo riesgo: pero no vale todo
Para usos más cotidianos –por ejemplo, marketing, atención al cliente, generación de contenidos– se considera bajo riesgo.
No necesitarás un permiso ni auditorías complejas. Pero ojo:
- Hay recomendaciones de buenas prácticas.
- Se espera transparencia.
La idea es que puedas usar IA para trabajar más rápido y mejor, pero sin engañar a nadie.
La estrella: el etiquetado obligatorio
Uno de los puntos más comentados de la ley es este: el etiquetado obligatorio.
Si generas contenido con IA (texto, imagen, vídeo, audio), tendrás que indicarlo de forma clara.
Sí o sí.
Nada de hacerse el loco y presentar deepfakes o imágenes generadas como si fueran reales.
Esto no es solo para las redes sociales o la publicidad. Aplica a cualquier contexto donde alguien pueda confundir lo artificial con lo humano.
Sanciones para quien se pase de listo
Aquí no hay bromas.
Las multas pueden llegar a decenas de millones de euros, o un porcentaje significativo de la facturación anual.
El texto diferencia infracciones leves, graves y muy graves.
Eso sí: en la versión actual, las sanciones más duras están previstas sobre todo para empresas privadas. La administración pública, en cambio, podría recibir solo amonestaciones. Esto ha generado bastante polémica y no se descarta que se revise en el Congreso.
Más allá del anteproyecto: qué otras normas aplican
Esto no se regula en el vacío.
Si usas IA en España, también tienes que cumplir con:
- El Reglamento General de Protección de Datos (RGPD).
- La LOPDGDD (Ley Orgánica de Protección de Datos y Garantía de Derechos Digitales).
- La Ley de Servicios Digitales (DSA).
- Normas sectoriales (sanidad, educación, finanzas).
En resumen: no vale con decir “la IA me lo hizo”. Tú eres responsable de su uso.
¿Y cómo me afecta si uso IA en mi negocio?
Esta es la pregunta del millón.
Porque tú puedes pensar: «Vale, Iria, pero yo solo uso ChatGPT para escribir posts. ¿En serio me tengo que preocupar?»
La respuesta es: sí, pero con matices.
- Si usas IA para generar contenido, necesitas etiquetarlo.
- Si filtras datos personales o perfiles de clientes, asegúrate de cumplir la LOPD.
- Si automatizas decisiones que afectan a personas (por ejemplo, selección de CV), tendrás que auditar sesgos y documentar procesos.
- Si tu IA hace diagnósticos médicos o toma decisiones legales, prepárate para controles mucho más estrictos.
Riesgos reales para la protección de datos
Aquí no hay que asustar, pero sí ser consciente.
Usar IA implica normalmente procesar datos personales.
Y eso tiene implicaciones directas con la LOPD:
- Necesitas base legal (consentimiento, interés legítimo, obligación legal).
- Debes informar de forma clara a la persona.
- No puedes tratar datos sensibles (salud, ideología) sin consentimiento explícito.
- Biometría: restringida a contextos muy concretos.
Además, la AEPD ya ha dicho que vigilará de cerca los usos de IA, especialmente los que impliquen perfiles, datos sensibles o reconocimiento facial.
El problema del sesgo y la discriminación
Otra cuestión clave que regula la ley: los sesgos algorítmicos.
No vale con decir “la IA me lo recomendó”. Si tu sistema discrimina a mujeres, minorías o colectivos vulnerables, serás responsable.
Por eso las auditorías y la supervisión humana no son un capricho. Son necesarias para garantizar decisiones justas y transparentes.
Y ahora, ¿qué hacemos?
Sé que puede sonar un poco abrumador.
Pero la idea no es que dejes de usar IA. Al revés: úsala, pero úsala bien.
Mi consejo es que te tomes un rato para:
- Revisar en qué partes de tu negocio usas IA.
- Analizar si implica datos personales.
- Pensar si ese uso podría ser de alto riesgo.
- Ajustar políticas de privacidad y procesos internos.
- Empezar a etiquetar el contenido generado con IA.
Aunque pueda parecer muy claro, mi recomendación es que si tienes la mínima duda consultes con un profesional especializado en el tema. Por sentido común y ganas de hacer las cosas de forma transparente y responsable.
Te digo algo que repito mucho en mis talleres: la IA no trabaja por ti, trabaja contigo.
Y para eso hace falta aprender a hablarle bien, pedirle lo que necesitas… y también ponerle límites.
Porque lo fácil es automatizar todo sin pensar. Lo valiente (y lo profesional) es usar la IA para mejorar, sin dejar de lado la ética y la responsabilidad.
Esta nueva ley de IA en España nos marca un camino. Puede que te dé pereza leerla (yo también me la tuve que masticar), pero entenderla es fundamental si quieres diferenciarte.
Porque el futuro no es solo para quien use IA, sino para quien sepa usarla bien.
Así que nada. Te invito a reflexionar, revisar tus procesos y contarme qué opinas.