🚨 “El filtro invisible” — RGPD, UE AI Act y la realidad española en selección
María, directora de RRHH en una pyme española, instala una IA local para cribar CVs. “Si todo se procesa en el portátil, estamos a salvo”, piensa.
Esa misma semana, la IA rechaza automáticamente a 312 candidatos. Sin revisión humana. Sin explicación. 🔧
Al mes, llega una auditoría:
— “¿Supervisión humana significativa?”
— “¿Informaste a los candidatos?”
— “¿Tu sistema está clasificado como alto riesgo?”
— “¿Tienes la documentación técnica y los registros?” 📄
Si no sabes las respuestas a estas preguntas siguen leyendo, porque a partir del 2/08/2026 será obligatorio y punible no tener las respuestas adecuadas.
🤔 ¿Y si pudieras transformar tu proceso de selección sin exponer datos sensibles a la nube?
En el actual panorama de Recursos Humanos en España, los departamentos de selección enfrentan un dilema aparentemente irresoluble: aprovechar el poder transformador de la inteligencia artificial para gestionar cientos de candidaturas… sin comprometer la privacidad de los datos personales ni arriesgar sanciones millonarias bajo el RGPD y la nueva Ley de IA europea.
Hasta ahora, muchas organizaciones han asumido que usar IA significaba tratar CVs, cartas de motivación y otros datos sensibles en servidores en la nube (Chat GPT, Perplexity, Copilot, Gemini,..) confiando en promesas de seguridad que, en realidad, generan más riesgos de cumplimiento que soluciones.
🧠 Pero existe una alternativa estratégica que está cambiando las reglas del juego: la inteligencia artificial local ejecutada directamente en el dispositivo del profesional de RR.HH.

🖥️ Intel AI Assistant Builder: tu asistente de IA para RR.HH., sin salir de tu escritorio
Intel AI Assistant Builder es una plataforma gratuita y de código abierto, disponible desde mayo de 2025, para equipos con procesadores Intel® Core™ Ultra (Serie 2) que permite a cualquier organización crear asistentes de inteligencia artificial personalizados que se ejecutan completamente en local, incluso sin internet. (GitHub Intel AI Assistant Builder)
No es un chatbot genérico. No es una solución en la nube. Es una herramienta de construcción GRATUITA (builder) diseñada para que profesionales sin conocimientos avanzados de programación puedan desarrollar sus propios agentes de IA adaptados a sus procesos empresariales.
✨ ¿Qué hace especial a Intel® AI Assistant Builder para Recursos Humanos?
Imagina poder cargar decenas de currículums en formato PDF, Word o Excel directamente en tu COPILOT+PC HP, Y formular preguntas como “¿Qué candidatos tienen experiencia en gestión de proyectos ágiles?” o “Resume las competencias técnicas de los cinco perfiles mejor calificados”, y obtener respuestas en segundos… sin que ningún dato salga jamás de tu dispositivo.
El sistema se apoya en modelos de lenguaje (LLMs) y puede enriquecer respuestas con documentación aportada por el usuario mediante enfoques tipo RAG (Retrieval-Augmented Generation), para extraer información relevante y responder de forma contextual.

Todo esto ocurre dentro del hardware de tu PC con IA, aprovechando la potencia combinada de CPU, GPU y, crucialmente, la Unidad de Procesamiento Neuronal (NPU CON MAS DE 40 tops) de los procesadores Intel Core Ultra 200v.
🤝 La perfecta simbiosis: Intel AI Assistant Builder + PCs con IA de HP CON Intel Core Ultra 200V.
HP ha lanzado en 2025 una nueva generación de ordenadores profesionales —como la familia EliteBook (incluyendo EliteBook X G1i)— equipados con procesadores Intel Core Ultra y NPUs con rendimiento anunciado en el rango de mas de 40 TOPS (y aun mas con los inminentes Intel© Panther Lake). Estos equipos están optimizados para ejecutar tareas de inteligencia artificial directamente en el propio dispositivo, sin necesidad de enviar datos a servidores externos o depender de una conexión permanente a internet.
- Ventajas para la autonomía.
Operatividad continua: Al procesar la IA localmente, el usuario puede trabajar con asistentes inteligentes, análisis de datos o cribado de candidatos incluso en entornos sin acceso a internet, lo que resulta clave en situaciones de movilidad, viajes o sedes con conectividad limitada.
Independencia tecnológica: No se depende de proveedores cloud externos ni de la disponibilidad de sus servicios, lo que permite mantener el control total sobre el funcionamiento y las actualizaciones del sistema.
Productividad sin interrupciones: Las tareas de IA, como el análisis de currículums o la generación de informes, se ejecutan de forma inmediata y sin latencias asociadas a la red, acelerando los procesos internos. - Ventajas para la privacidad y Soberanía de los datos: Toda la información sensible (CVs, datos personales, resultados de cribado) permanece en el dispositivo del profesional de RR.HH., evitando transferencias externas y reduciendo la exposición a riesgos de fuga o acceso no autorizado.
Cumplimiento normativo reforzado: El procesamiento local facilita el cumplimiento de principios como la minimización de datos y el “privacy by design” exigidos por el RGPD y la Ley de IA europea, ya que se reduce la superficie de ataque y se evitan transferencias internacionales.
Control absoluto: El usuario puede auditar, supervisar y documentar el uso de la IA sin depender de terceros, lo que simplifica las auditorías y la demostración de cumplimiento ante organismos reguladores.
Es como tener una caja fuerte digital en tu despacho: todo el procesamiento ocurre dentro, sin que nada salga al exterior, lo que te da autonomía para operar y la tranquilidad de que la privacidad de tu información está protegida en todo momento.

🎯 ¿Por qué esta combinación es estratégica para RR.HH.?
- 🔒 Privacidad y soberanía de datos: Los datos de candidatos permanecen en tu dispositivo en todo momento. Reducir transferencias externas disminuye exposición y superficie de ataque.
- ⚡ Eficiencia energética y velocidad: Las NPUs aceleran cargas de IA específicas y ayudan a ejecutar tareas en local sin latencias por red.
- 🧾 Minimización de riesgos regulatorios: El procesamiento local NO exime del RGPD ni del AI Act, pero facilita principios como minimización y privacy by design. (Fuente: Comisión Europea — AI Act; Reglamento (UE) 2024/1689)
- ⏱️ Productividad sin compromisos: automatiza análisis inicial, resúmenes y comparativas, liberando tiempo para revisión humana cualitativa. (Fuente: Intel Newsroom, 19 febrero 2025; GitHub Intel AI Assistant Builder)
🧭 La arquitectura que recomienda este documento: local first, compliance always
El resto de este documento que estás a punto de leer, te revelará una verdad incómoda pero crucial: ninguna arquitectura tecnológica, por avanzada que sea, te eximirá mágicamente de cumplir con el RGPD, la LOPDGDD española y el AI Act europeo. (Fuente: AEPD — decisiones automatizadas; LOPDGDD; Reglamento (UE) 2024/1689).

Pero lo que sí puedes hacer es elegir inteligentemente la arquitectura que minimice riesgos, simplifique auditorías y demuestre tu compromiso proactivo con la privacidad desde el diseño (privacy by design). (Fuente: RGPD; EDPB/WP251)
La combinación de Intel AI Assistant Builder ejecutándose en PCs con IA de HP Copilot+PC representa una opción sólida para departamentos de RR.HH. en España que buscan:
- ✅ Incrementar la productividad en el cribado y análisis de candidatos
- ✅ Reducir drásticamente los riesgos de transferencias internacionales de datos
- ✅ Facilitar el cumplimiento de obligaciones de transparencia, supervisión humana y documentación técnica exigidas por la Ley de IA
- ✅ Mantener el control absoluto sobre datos sensibles sin depender de proveedores cloud externos
- ✅ Prepararse estratégicamente para fechas críticas de implementación: 2 de febrero de 2025 (alfabetización/formación en IA) y 2 de agosto de 2026 (aplicación del marco de alto riesgo)
🔎 Lo que descubrirás a continuación
A lo largo de este documento, desvelaremos las trampas ocultas del Artículo 22 del RGPD en contexto español, las excepciones que NO funcionan en procesos de selección, y por qué la creencia de que “lo local siempre está exento” o “si está subido a un cloud de un proveedor multinacional ya está protegido” son unos de los errores más costosos que puedes cometer.

Pero también te proporcionaremos un mapa claro y accionable para navegar esta complejidad: desde la clasificación de sistemas de alto riesgo hasta las obligaciones documentales concretas, pasando por un checklist de cumplimiento que podrás usar como auditoría interna trimestral al final del mismo.
✅ ¿Estás listo para entender cómo la arquitectura local puede ser tu mayor aliado… sin caer en la ilusión de que elimina tus responsabilidades legales?
Sigue leyendo. Lo que viene a continuación puede marcar la diferencia entre una implementación estratégica de IA en tu departamento de RR.HH. y una sanción de la AEPD.
TL;DR (resumen)
✅ La IA local (on-device) reduce exposición y riesgos (privacidad, ciberseguridad y transferencias), pero no cambia la clasificación regulatoria.
⚠️ En selección de personal, el AI Act considera estos sistemas de “alto riesgo” por su finalidad, aunque funcionen sin nube.
🧑⚖️ El artículo 22 RGPD se activa si hay decisiones totalmente automatizadas con efecto significativo (p.ej., rechazo automático). En España, la salida más robusta suele ser IA como apoyo + revisión humana significativa.
🚨 La creencia errónea sobre el procesamiento local de IA
En un contexto en el que la inteligencia artificial (IA) se integra cada vez más en los procesos de selección, muchas organizaciones españolas se plantean una pregunta crucial:
❓ ¿El uso de herramientas locales (por ejemplo, Intel AI Assistant Builder) que procesan datos directamente en el dispositivo sin enviarlos a la nube puede eximir del cumplimiento normativo?

✋ La respuesta es contundente: NO.
Tanto el Reglamento General de Protección de Datos (RGPD) como la nueva Ley de Inteligencia Artificial de la Unión Europea (Reglamento (UE) 2024/1689) se aplican de forma conjunta y complementaria cuando se utilizan sistemas de IA que tratan datos personales en contextos laborales.
🔎 El punto crítico para España:
El análisis del artículo 22 del RGPD, aplicado al ordenamiento jurídico español, introduce matices relevantes: no basta con “sacar datos a la nube”. Hay que mirar cómo se decide, con qué intervención humana y con qué garantías.
💡 DATO CLAVE: La Ley de IA clasifica los sistemas como de alto riesgo por su finalidad y caso de uso, NO por dónde se procesen o almacenen los datos.

🎯 Ley de IA de la UE: alcance y clasificación (también para herramientas locales)
Bajo la Ley de Inteligencia Artificial de la UE, incluso los sistemas de IA locales entran en el ámbito del Reglamento, dependiendo de su finalidad y su clasificación de riesgo.
📌 Clasificación: los sistemas de IA para evaluación de empleo —como herramientas de cribado de currículums— se consideran “ALTO RIESGO” (Anexo III). Aunque funcionen localmente sin transmitir datos, están sujetos a obligaciones si influyen en decisiones de empleo.
| Aspecto | ✅ Beneficio real del procesamiento local | ❌ Lo que NO exime (obligaciones que siguen aplicando) |
| Privacidad | Los datos no salen del dispositivo | Clasificación de alto riesgo |
| Seguridad | Menor superficie de ataque | Supervisión humana |
| RGPD | Facilita minimización de datos | Transparencia |
| Transferencias | Evita transferencias internacionales | Documentación técnica obligatoria |
✅ Ventajas del procesamiento local:
• Mayor privacidad: los datos no salen del dispositivo
• Ciberseguridad más sólida: menor superficie de ataque
• Facilita el cumplimiento RGPD: ayuda a la minimización de datos
• Reduce riesgos de brechas vinculadas a entornos cloud (sin eliminarlos)
❌ Lo que NO hace el procesamiento local:
• No exime de la clasificación de alto riesgo cuando el caso de uso lo es
• No elimina obligaciones de transparencia
• No evita requisitos de supervisión humana
• No suprime la documentación técnica y registros obligatorios
⚖️ Artículo 22 del RGPD: el “punto ciego” en selección
El artículo 22 del RGPD establece el derecho de toda persona a NO ser objeto de una decisión basada únicamente en el tratamiento automatizado (incluida la elaboración de perfiles) que produzca efectos jurídicos sobre ella o le afecte significativamente.
🔴 ¿Cuándo se activa el artículo 22?

Se requieren TRES condiciones acumulativas:
1. La decisión se basa únicamente en tratamiento automatizado (sin intervención humana significativa).
2. Incluye elaboración de perfiles.
3. Produce efectos jurídicos o afecta significativamente al interesado.
⚠️ Contexto de reclutamiento: rechazar automáticamente una solicitud de empleo mediante IA sin intervención humana activa claramente el artículo 22 del RGPD.
📌 Las TRES excepciones del artículo 22.2 (y por qué son delicadas en RR.HH.)
La prohibición no se aplicará cuando la decisión:
• a) 📝 Sea necesaria para la celebración o ejecución de un contrato.
• b) 🏛️ Esté autorizada por el Derecho de la Unión o de los Estados miembros.
• c) ✍️ Se base en el consentimiento explícito del interesado.
🎯 Confirmación AEPD:
La Agencia Española de Protección de Datos ha señalado que la “intervención humana” debe ser significativa (real y con capacidad de cambiar el resultado), no simbólica. Esto es especialmente relevante en procesos de selección.
🧾 Excepción A: “¿necesaria para el contrato?”
❓ Pregunta clave: ¿es “necesario” para la ejecución de un contrato que un candidato solicite un empleo mediante un proceso automatizado?
🔎 Según las Directrices WP251, que son un documento oficial elaborado por el Grupo de Trabajo del Artículo 29 (GT29), que reúne a las autoridades europeas de protección de datos. Su objetivo es interpretar y orientar la aplicación del Reglamento General de Protección de Datos (RGPD). La interpretación es matizada y RESTRICTIVA. El responsable debe demostrar necesidad y valorar si hay alternativas menos invasivas.
💼 Ejemplo WP251: “Una empresa con un número excepcionalmente elevado de solicitudes (decenas de miles) puede necesitar decisiones automatizadas para confeccionar una lista limitada de candidatos.”
⚠️ La mera solicitud de empleo suele estar en fase precontractual; no es “ejecución” de contrato en sentido estricto. Esta excepción debería reservarse para circunstancias excepcionales (volumen masivo + imposibilidad material de revisión humana inicial). Aun cuando se invoque, el artículo 22.3 exige salvaguardas: intervención humana, posibilidad de expresar el punto de vista e impugnar la decisión.
La guía del Ministerio de Trabajo (mayo 2022) recuerda que incluso el apoyo algorítmico exige cumplir protección de datos y transparencia.
✅ Conclusión práctica: en la mayoría de los procesos de selección en España, no es razonable invocar el artículo 22.2.a como base para rechazos completamente automatizados.
⚖️ RECOMENDACIÓN ESTÁNDAR: salvo volumen excepcional de solicitudes y con garantías adecuadas de intervención humana posterior, esta excepción NO es aplicable.
🏛️ Excepción B: “¿autorizada por ley española?” (análisis de normativa nacional)
❓ Pregunta clave: ¿existe en España una ley que autorice expresamente decisiones completamente automatizadas en procesos de selección de personal (art. 22.2.b RGPD)?
❌ Respuesta: NO. No existe actualmente una norma española específica que otorgue esa autorización expresa para reclutamiento.
📚 Normativa española relevante (pero de transparencia, no de “permiso”):
• Ley Orgánica 3/2018 (LOPDGDD), artículo 11: refuerza transparencia e información al afectado e incluye el aviso sobre perfiles y el derecho ante decisiones automatizadas.
• Estatuto de los Trabajadores, artículo 64.4.d (modificado por Ley 12/2021): obligación de informar a la representación legal sobre parámetros, reglas e instrucciones de algoritmos que inciden en condiciones de trabajo, acceso y mantenimiento del empleo.
• Guía del Ministerio de Trabajo (mayo 2022): desarrolla obligaciones de información algorítmica y buenas prácticas, pero no crea una autorización específica.
✅ Conclusión final: la normativa española establece obligaciones de transparencia e información, pero NO autoriza decisiones automatizadas en reclutamiento.
✍️ Excepción C: “consentimiento explícito” (viabilidad en contexto laboral español)
❓ Pregunta clave: ¿sería suficiente obtener el consentimiento explícito del candidato para legitimar el tratamiento automatizado de su solicitud?
⚖️ Respuesta: técnicamente sí, PERO con matices prácticos y éticos importantes. El artículo 22 exige consentimiento explícito (declaración expresa).
⚠️ Obstáculos típicos en contexto laboral/precontractual:
• Desequilibrio de poder: cuando existe desequilibrio, el consentimiento puede no ser libre.
• Reticencias regulatorias: suele cuestionarse la “libertad” real del consentimiento en relaciones laborales/precontractuales.
• Requisitos adicionales (art. 22.3): incluso con consentimiento, deben existir salvaguardas (intervención humana, punto de vista, impugnación).
• Categorías especiales (art. 9 RGPD): si el sistema infiere o trata datos sensibles, se exigen condiciones adicionales.
• Derecho de retirada: el candidato puede retirar el consentimiento en cualquier momento, generando incertidumbre operativa.
✅ Conclusión práctica: el consentimiento explícito suele ser una base jurídica poco recomendable para decisiones automatizadas de reclutamiento en España.
💡 Recomendación: no utilizar el consentimiento como base jurídica principal para rechazos automatizados. Optar por IA como herramienta de APOYO con revisión humana significativa.
🗓️ Calendario de implementación: fechas críticas

Fechas clave AI Act de la UE
📍 2 de febrero de 2025: formación/alfabetización en IA y primeras obligaciones que empiezan a aplicar (incluidas prohibiciones).
• Implementar programas de formación para RR.HH. y personal que supervisa sistemas.
• Documentar la capacitación.
• Designar responsables cualificados.
📍 2 de agosto de 2026: entrada en aplicación del marco para sistemas de IA de alto riesgo (reclutamiento, especialmente). Con multas de hasta 35 millones de euros o el 7% de la facturación anual global de la empresa, aplicándose el mayor de ambos valores, para infracciones muy graves, o de hasta 7,5 millones de euros o el 1% de la facturación anual global para Infracciones leves (deficiencias menores en documentación, explicabilidad o mecanismos de control).
Ejemplos de incumplimiento sancionable en reclutamiento con IA:
- Falta de intervención humana significativa en decisiones automatizadas de selección.
- No informar adecuadamente a los candidatos sobre el uso de IA.
- No realizar evaluaciones de impacto (DPIA/FRIA) cuando corresponde.
- No documentar ni auditar el funcionamiento del sistema.
- Discriminación por sesgos en los algoritmos.
- No garantizar derechos de acceso, explicación o impugnación de decisiones.
Hitos para tener resueltos en esa fecha (2/08/2026):
• Gestión de riesgos
• Documentación técnica
• Registros de operaciones
• Transparencia con candidatos
• Supervisión humana
• Precisión y ciberseguridad
📍 Permanente: monitorización continua RGPD
• Revisar base jurídica, minimización y conservación.
• Auditar sesgos y calidad de datos/modelos.
• Verificar que los derechos de los candidatos (incluido art. 22, si aplica) se atienden de forma efectiva.
• Actualizar DPIA/FRIA cuando cambie el sistema o el contexto.
🔗 Cumplimiento conjunto: RGPD + Ley IA
Para sistemas de IA en cribado de currículums:
RGPD:
• Base jurídica válida
• DPIA (Evaluación de Impacto de Protección de Datos) cuando proceda
• Transparencia total
• Derechos de acceso, explicación y (si aplica) salvaguardas del art. 22
• Supervisión humana significativa cuando corresponda
Ley IA (AI Act):
• Gestión de riesgos y gobernanza de datos
• Documentación técnica y registros
• Trazabilidad y control de calidad
• Formación/alfabetización (desde feb. 2025)
En conclusión, el cumplimiento normativo en materia de protección de datos y la aplicación de la Ley de Inteligencia Artificial (AI Act) requiere una atención exhaustiva a diferentes aspectos clave, como la existencia de una base jurídica válida, la evaluación de impacto (DPIA) cuando sea pertinente, la transparencia, la garantía de derechos y la supervisión humana significativa. Además, la gestión de riesgos, la documentación técnica, la trazabilidad y la formación continua se erigen como pilares esenciales para garantizar el uso responsable y seguro de los sistemas de IA.
A continuación te proporciono una checklist como herramienta práctica para facilitar la verificación periódica del cumplimiento de estos requisitos, especialmente dentro del área de Recursos Humanos, donde el uso de sistemas de IA puede tener un impacto directo en los derechos de las personas. Esta lista ayuda a sistematizar y asegurar que ningún aspecto relevante se pase por alto, permitiendo a las organizaciones adaptarse con eficacia a las obligaciones legales y éticas que impone la normativa vigente.
✅ Checklist de cumplimiento para RR.HH. (uso recomendado trimestral)
🔹 1. CLASIFICACIÓN
☐ Sistema alto riesgo (Anexo III AI Act)
☐ DPIA y FRIA realizadas (si aplica)
🔹 2. BASE JURÍDICA
☐ Art. 6 RGPD identificada
☐ Interés legítimo/contrato evaluados (según el caso)
☐ Consentimiento válido (solo si se usa)
🔹 3. SUPERVISIÓN
☐ Intervención humana significativa
☐ Art. 22 RGPD cumplido (si aplica)
☐ Garantías implementadas
🔹 4. TRANSPARENCIA
☐ Candidatos informados sobre uso de IA
☐ Lógica y criterios explicados de forma comprensible
☐ Derechos RGPD garantizados
🔹 5. GOBERNANZA
☐ Datos sin sesgos evidentes
☐ Medidas anti-sesgo y validación
☐ Documentación completa
🔹 6. ESPAÑA
☐ Representantes informados (Art. 64.4.d ET)
☐ Guía MT 2022 considerada
☐ Canal de impugnación/quejas operativo
🔹 7. FORMACIÓN
☐ Alfabetización en IA (feb. 2025)
☐ Personal designado con conocimientos y autoridad
🔹 8. MONITORIZACIÓN
☐ Seguimiento continuo
☐ Incidentes documentados
☐ Evaluación actualizada
🔹 9. SEGURIDAD
☐ Medidas técnicas/organizativas
☐ Conservación limitada
☐ Riesgos evaluados
🔹 10. CALENDARIO
☐ Fechas identificadas (feb. 2025 y ago. 2026)
☐ Adaptación planificada y evidencias
🏁 Conclusiones y recomendaciones finales
Respuestas directas:
1) ¿IA local sujeta a Ley IA? Sí (si el caso de uso es alto riesgo).
2) ¿Procesamiento local afecta la evaluación? Sí, de forma positiva, pero no exime obligaciones.
3) ¿Solicitar empleo es “contrato” (art. 22.2.a)? Normalmente no: es fase precontractual.
4) ¿Ley española autoriza decisiones automatizadas en selección? No de forma expresa.
5) ¿Consentimiento suficiente? No recomendable (desequilibrio de poder + otros riesgos).
Recomendaciones:
1) IA como apoyo (no como juez único).
2) Revisión humana significativa (no simbólica).
3) Base jurídica robusta (interés legítimo/contrato según el caso) y no depender del consentimiento como regla general.
4) Transparencia clara y accionable para candidatos.
5) Cumplir obligaciones de información algorítmica en España cuando aplique.
6) Prepararse para fechas clave (feb. 2025 y ago. 2026) con evidencias y gobierno interno.
🔑 Clave: el riesgo depende de CÓMO se usa la IA, no de dónde se procesa. Transparencia, supervisión humana y evaluación de riesgos son los pilares.
Pregunta abierta para debate: ¿tu proceso de selección hoy podría explicar “por qué” una IA ha priorizado o descartado a un candidato, y permitir una revisión humana real?
📚 Referencias (todas las citas y enlaces)
• Unión Europea. (2024). Reglamento (UE) 2024/1689 (AI Act). EUR-Lex. https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:32024R1689
• Comisión Europea. (s. f.). AI Act – Regulatory framework on AI. https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
• ArtificialIntelligenceAct.eu (Future of Life Institute). (2024). Implementation timeline – EU AI Act. https://artificialintelligenceact.eu/implementation-timeline/
• Agencia Española de Protección de Datos (AEPD). (2024, 4 marzo). Evaluación de la intervención humana en las decisiones automatizadas. https://www.aepd.es/prensa-y-comunicacion/blog/evaluacion-de-la-intervencion-humana-en-las-decisiones-automatizadas
• Agencia Española de Protección de Datos (AEPD). (2024, 8 marzo). Derecho a no ser objeto de decisiones individuales automatizadas. https://www.aepd.es/derechos-y-deberes/conoce-tus-derechos/derecho-no-ser-objeto-de-decisiones-individuales
• European Data Protection Board (EDPB). (2018, 25 mayo). Automated decision-making and profiling. https://www.edpb.europa.eu/our-work-tools/our-documents/guidelines/automated-decision-making-and-profiling_en
• Grupo de Trabajo del Artículo 29 / Comisión Europea. (2018). WP251rev.01 – Automated individual decision-making and Profiling. https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=612053
• España. Boletín Oficial del Estado. (2018). Ley Orgánica 3/2018 (LOPDGDD). https://www.boe.es/buscar/doc.php?id=BOE-A-2018-16673
• Ministerio de Trabajo y Economía Social. (2022, mayo). Información algorítmica en el ámbito laboral (Guía). https://www.mites.gob.es/ficheros/ministerio/inicio_destacados/Guia_Algoritmos_ES.pdf
• España. Boletín Oficial del Estado. (2025). Estatuto de los Trabajadores (RDL 2/2015) – edición actualizada. https://www.boe.es/biblioteca_juridica/abrir_pdf.php?id=PUB-DT-2025-139
• Osborne Clarke. (2025, 25 marzo). Interplay of the EU AI Act and GDPR. https://www.osborneclarke.com/insights/interplay-eu-ai-act-and-gdpr
• AIActBlog. (2025, 5 agosto). DPIA vs FRIA: practical comparison + template. https://www.aiactblog.nl/en/posts/dpia-vs-fria-practical-comparison
• Clifford Chance. (2024). The EU AI Act: overview of key rules and requirements. https://www.cliffordchance.com/content/dam/cliffordchance/PDFDocuments/the-eu-ai-act-overview.pdf
• Intel Newsroom. (2025, 20 mayo). AI Assistant Builder Delivers Free AI Assistants. https://newsroom.intel.com/client-computing/ai-assistant-builder-delivers-free-ai-assistants
• Intel Newsroom. (2025, 19 febrero). Intel’s New AI Suite Helps Customers Quickly Create AI Assistants. https://newsroom.intel.com/artificial-intelligence/intel-ai-suite-creates-ai-assistants-in-minutes
• HP. (s. f.). HP EliteBook Ultra AI PC (especificaciones NPU hasta 48 TOPS en modelos Intel). https://www.hp.com/us-en/laptops/business/elitebooks/ultra-ai-pc.html