¿Tu empresa usa IA para la contratación? ¿Tienes un chatbot en tu web? ¿Utilizas puntuación automática de leads?
A partir del 2 de agosto de 2026, todo esto estará regulado por una ley europea con multas de hasta 35 millones de euros.
Tranquilo — la mayoría de las empresas B2B polacas están en mejor posición de lo que creen. Pero hay un detalle que casi ningún artículo menciona. Lo veremos en un momento.
Qué es la Ley de IA y por qué me afecta
El Reglamento (UE) 2024/1689 es la primera ley integral del mundo que regula la inteligencia artificial. Entró en vigor el 1 de agosto de 2024.
Principio clave: se aplica a todas las empresas que ofrecen o utilizan IA en la UE, independientemente de su sede. Una startup estadounidense que te vende software de IA está sujeta a la Ley de IA. Una empresa polaca que utiliza ese software, también.
La Ley de IA funciona como normativa de construcción para la IA: a mayor riesgo, normas más estrictas.
Calendario: qué ya aplica y qué está por llegar
- 1 agosto 2024 — La Ley de IA entra en vigor
- 2 febrero 2025 — Prohibición de sistemas de IA de riesgo inaceptable — ya en vigor
- 2 agosto 2025 — Normas para modelos de IA de propósito general (GPT-4, Claude, Gemini)
- 2 agosto 2026 — Aplicación plena para sistemas de alto riesgo — fecha clave
- 2 agosto 2027 — IA integrada en dispositivos médicos y maquinaria industrial
Tienes hasta el 2 de agosto de 2026. Parece lejos, pero preparar la documentación para sistemas de alto riesgo lleva en la práctica entre 6 y 12 meses.
Cuatro categorías de riesgo — dónde encaja tu empresa
Riesgo inaceptable — prohibición absoluta (desde febrero 2025)
- Sistemas que manipulan a los usuarios de forma subliminal
- Reconocimiento de emociones en lugares de trabajo y centros educativos
- Puntuación social de ciudadanos por autoridades públicas
- Policía predictiva basada en características personales
- Creación de bases de datos faciales mediante extracción masiva
Alto riesgo — documentación completa antes de agosto 2026
Aquí está el detalle clave. Los sistemas de alto riesgo no son solo militares o médicos. Incluyen aplicaciones empresariales muy comunes:
- Contratación — cualquier sistema de IA para cribado de CV, clasificación de candidatos, evaluación de empleados
- Puntuación crediticia y de seguros — evaluación automática de solvencia
- Gestión del rendimiento de empleados — si la IA decide sobre bonos, ascensos o despidos
- Infraestructura crítica (energía, agua, transporte)
- Sistemas educativos de evaluación
Riesgo limitado — obligaciones de transparencia
- Chatbots de atención al cliente — deben informar al usuario de que habla con IA
- IA generativa que produce texto, imágenes o audio — obligación de etiquetar el contenido
- Deepfakes — etiquetado obligatorio como material sintético
Riesgo mínimo — sin requisitos adicionales
- Filtros de spam
- Herramientas de recomendación de productos en e-commerce
- La mayoría de herramientas de productividad con IA
- Análisis BI y predicción de ventas
La distincón clave: proveedor vs. desplegador
Proveedor — creas o despliegas un sistema de IA para otros. Obligaciones completas: documentación técnica, certificación, registro en la base de datos de IA de la UE, marcado CE, designación de responsable de IA.
Desplegador — compras una herramienta de IA lista para usar (SaaS, API) y la utilizas en tu negocio. Obligaciones más ligeras: usar según las instrucciones del proveedor, supervisión humana, monitoreo e información a empleados.
La mayoría de las empresas B2B son desplegadoras: ChatGPT, Copilot, herramientas no-code. Buenas noticias: el alcance de las obligaciones es mucho menor que para quienes construyen sus propios sistemas.
Qué debe hacer tu empresa — lista de verificación
Si usas IA para contratación o evaluación de empleados (alto riesgo):
- Realiza una Evaluación de Impacto sobre Derechos Fundamentales (FRIA) antes del despliegue
- Garantiza supervisión humana — ninguna decisión puede ser completamente automática
- Informa a los empleados sobre el uso de IA
- Conserva los registros del sistema durante al menos 6 meses
- Verifica que tu proveedor tiene documentación técnica y certificación
Si tienes un chatbot o usas IA generativa (riesgo limitado):
- Añade un aviso claro: “Estás hablando con un asistente de IA”
- Ofrece la posibilidad de conectar con una persona
- Etiqueta el contenido generado por IA donde se publique
Para todas las empresas:
- Haz un inventario de todas las herramientas de IA que utilizas y determina su categoría de riesgo
- Verifica que tus proveedores de SaaS y API están actualizando sus productos para cumplir con la Ley de IA
- Designa a alguien responsable del cumplimiento de la Ley de IA en tu empresa
Multas — cuánto cuestan realmente
- Uso de sistemas de IA prohibidos — 35 M€ o el 7% de la facturación global anual
- Incumplimiento de obligaciones de alto riesgo — 15 M€ o el 3% de la facturación global anual
- Información incorrecta a las autoridades — 7,5 M€ o el 1,5% de la facturación global anual
Para pymes y startups se aplica el valor más bajo. Pero las multas no son el único riesgo: daño reputacional, demandas de empleados despedidos “por un algoritmo”, responsabilidad por decisiones discriminatorias pueden costar más que la sanción.
Resumen
La Ley de IA no es una amenaza para la mayoría de las empresas polacas, siempre que entiendas en qué categoría operas.
Tres cosas que hacer ahora:
- Inventaría todas las herramientas de IA de tu empresa
- Comprueba la categoría — contratación y evaluación de empleados = alto riesgo
- Designa a un responsable — no tiene que ser abogado, pero debe conocer los procesos de tu empresa
Tu fecha límite es el 2 de agosto de 2026. Las organizaciones que empiecen ahora tendrán margen cómodo. Las que empiecen en julio de 2026 estarán apagando incendios.
Reserva una consulta gratuita con Prospere AI — te ayudaremos a evaluar dónde está tu empresa →