Giuristi: Revista de Derecho Corporativo
© Universidad ESAN, Lima, Perú
ISSN 2708-9894
https://doi.org/10.46631/Giuristi.2025.v6n12.04
Soledad Cornejo
Universidad Continental, Lima, Perú
Orcid: https://orcid.org/0009-0002-4881-3425
Alejandra Vargas
Pontificia Universidad Católica del Perú, Lima, Perú
Orcid: https://orcid.org/0009-0002-2156-8415
Dina Meza
Poder Judicial del Perú Universidad Andina, Cusco, Perú
Orcid: https://orcid.org/0000-0002-9650-5884
Fecha de recepción: 27/10/2025
Fecha de aceptación: 14/11/2025
Resumen
La expansión de la inteligencia artificial (IA) en la gestión del trabajo plantea nuevos desafíos para el derecho corporativo. La automatización de tareas como la selección y la evaluación de personal mejora la eficiencia, pero genera riesgos de sesgo, vigilancia y opacidad. Este artículo, de enfoque dogmático-analítico y comparado, examina la gestión algorítmica laboral a la luz del AI Act europeo, la Directiva sobre trabajo en plataformas, la norma ISO 42001 y la legislación peruana de protección de datos. Asimismo, propone el concepto de responsabilidad corporativa digital, entendido como la extensión del deber de diligencia empresarial al ámbito tecnológico, e incorpora la auditoría algorítmica como una herramienta de compliance destinada a garantizar la transparencia y la supervisión humana. En consecuencia, la empresa moderna debe integrar la gobernanza algorítmica en sus políticas para equilibrar innovación y tutela de derechos.
Palabras clave: inteligencia artificial, derecho corporativo, auditoría algorítmica, compliance, responsabilidad digital.
Abstract
The spread of artificial intelligence (AI) in labor management introduces new challenges for corporate law. Automating tasks such as recruitment and performance evaluation enhances efficiency but creates risks of bias, surveillance, and opacity. This article, adopting a dogmatic-analytical and comparative approach, examines algorithmic labor management through the lens of the European AI Act, the Platform Work Directive, ISO 42001, and Peruvian data protection legislation. It proposes the concept of digital corporate responsibility, understood as the extension of the company’s duty of care to the technological domain, and introduces algorithmic auditing as a compliance tool intended to ensure transparency and meaningful human oversight. Accordingly, modern corporations must integrate algorithmic governance into their policies to balance innovation with the protection of fundamental rights.
Keywords: artificial intelligence, corporate law, algorithmic auditing, compliance, digital responsibility.
Resumo
A expansão da inteligência artificial (IA) na gestão do trabalho impõe novos desafios ao direito corporativo. A automação de funções como recrutamento e avaliação aumenta a eficiência, mas cria riscos de viés, vigilância e falta de transparência. Este artigo, de enfoque dogmático-analítico e comparado, examina a gestão algorítmica laboral à luz do AI Act europeu, da Diretiva sobre trabalho em plataformas, da norma ISO 42001 e da legislação peruana de proteção de dados. Propõese o conceito de responsabilidade corporativa digital, entendido como a extensão do dever de diligência empresarial ao campo tecnológico, e incorpora a auditoria algorítmica como ferramenta de compliance destinada a garantir transparência e supervisão humana. Assim, a empresa contemporânea deve integrar a governança algorítmica às suas políticas para equilibrar inovação e proteção de direitos.
Palavras-chave: inteligência artificial, direito corporativo, auditoria algorítmica, compliance, responsabilidade digital.
La incorporación de sistemas de inteligencia artificial (IA) en la gestión del trabajo ha transformado la organización empresarial contemporánea. Procesos como la selección de personal, la evaluación del desempeño, la asignación de tareas y el control de productividad se gestionan cada vez más mediante algoritmos y plataformas automatizadas. Este fenómeno, conocido como gestión algorítmica del trabajo, genera eficiencia operativa, pero también reconfigura las relaciones de poder entre empleador y trabajador, y plantea nuevos retos para el derecho corporativo, laboral y constitucional.[1]
En el contexto peruano, donde la transformación digital empresarial avanza sin una regulación específica sobre el uso de la IA, el debate sobre los límites jurídicos de la automatización se torna urgente. Las empresas integran herramientas de análisis predictivo, biometría o reconocimiento facial sin mecanismos claros de transparencia ni revisión humana, lo que podría vulnerar derechos fundamentales como la intimidad, la igualdad y la no discriminación. La Organización Internacional del Trabajo ha advertido que la falta de control sobre estas tecnologías puede profundizar asimetrías de información y reforzar formas de subordinación digital[2], especialmente en contextos de debilidad institucional. Por su parte, la Organización para la Cooperación y el Desarrollo Económicos (OCDE) ha planteado principios de rendición de cuentas y explicabilidad para orientar el uso empresarial de la IA[3], reconociendo la necesidad de responsabilidad jurídica y ética en su implementación. A nivel comparado, la Unión Europea ha consolidado un marco normativo que vincula la gobernanza corporativa con la gestión ética de la IA. El Reglamento (UE) 2024/1689 (AI Act) introduce un enfoque basado en riesgos que obliga a las empresas a realizar evaluaciones de impacto y mantener la supervisión humana sobre sistemas automatizados de alto riesgo, entre ellos los utilizados para selección o evaluación laboral.[4] De manera complementaria, la Directiva europea sobre trabajo en plataformas, aprobada en el 2024, refuerza el derecho de los trabajadores a ser informados sobre los algoritmos que afectan su relación contractual y a impugnar decisiones automatizadas.[5] Asimismo, la norma internacional ISO/IEC 42001:2023 establece sistemas certificables de gestión de IA. Estos instrumentos evidencian un consenso creciente: la IA no puede entenderse solo como innovación tecnológica, sino como objeto de control jurídico y de responsabilidad empresarial.[6]
En el plano latinoamericano, los avances son incipientes. El Perú cuenta con la Ley N.º 29733 de Protección de Datos Personales y su Reglamento actualizado (DS N.º 016-2024-JUS), que imponen los principios de finalidad y proporcionalidad aplicables al tratamiento automatizado de información laboral, pero no contemplan la gestión algorítmica[7] del trabajo, lo que deja un vacío relevante para el gobierno corporativo.
De esta situación emerge el problema central de este estudio: ¿cómo debe adaptarse la responsabilidad corporativa para supervisar sistemas algorítmicos que inciden en los derechos laborales y constitucionales? La hipótesis sostiene que la responsabilidad corporativa digital constituye una extensión natural del deber de diligencia empresarial, aplicable al uso de tecnologías de IA en la organización del trabajo.
Desde la perspectiva del derecho del trabajo, esta automatización redefine las nociones de subordinación, control y evaluación, y traslada parte del poder directivo empresarial al sistema algorítmico, fenómeno que la doctrina reciente ha denominado subordinación algorítmica.[8]
El objetivo general es proponer un esquema conceptual y normativo que integre los principios del gobierno corporativo con las exigencias de transparencia, explicabilidad y trazabilidad algorítmica que plantean los nuevos estándares internacionales. En particular, se busca identificar las obligaciones empresariales derivadas de la gestión algorítmica del trabajo y sugerir mecanismos de auditoría y compliance digital aplicables al contexto peruano. Este enfoque articula el deber de diligencia corporativa con los principios protectores del derecho del trabajo y resalta el rol de la empresa en la garantía de condiciones laborales justas en entornos digitalizados.[9]
Metodológicamente, se adopta un enfoque dogmático-analítico basado en la interpretación sistemática del derecho corporativo, constitucional y laboral, complementado con un análisis comparado de las normas europeas, los estándares internacionales (OCDE, ISO) y la legislación peruana vigente. Así, se analizan los principales instrumentos de soft law —como las Directrices de la OCDE para Empresas Multinacionales del 2023 o la propuesta de reglamento europeo de IA— y se examina su incidencia sobre el deber de diligencia empresarial, particularmente desde la perspectiva del principio de prevención y la responsabilidad corporativa frente a los riesgos tecnológicos que afectan los derechos laborales.[10]
En suma, este artículo parte del reconocimiento de que la empresa contemporánea ya no es solo un agente económico, sino también un actor tecnológico cuya gestión automatizada puede afectar derechos fundamentales. La articulación entre derecho y tecnología exige que el gobierno corporativo asuma la responsabilidad digital como nuevo estándar de diligencia, incorporando transparencia, trazabilidad algorítmica y respeto a los derechos laborales como componentes indispensables del compliance empresarial moderno.
El gobierno corporativo ha pasado de un modelo centrado en la relación entre accionistas y administradores a un enfoque más amplio que incorpora los intereses de trabajadores, consumidores y sociedad. En este contexto, la responsabilidad corporativa deja de limitarse a la integridad financiera y abarca la gestión ética de los riesgos tecnológicos derivados del uso de la IA.[11]
El principio de diligencia empresarial, reconocido en el Código de Buen Gobierno Corporativo para las Sociedades Peruanas, impone a los órganos de dirección el deber de identificar y controlar riesgos que puedan afectar la sostenibilidad o la reputación de la empresa.[12] En la actualidad, estos riesgos incluyen el impacto de los algoritmos en la privacidad, la igualdad y las condiciones laborales.
A nivel internacional, los Principios de Inteligencia Artificial de la OCDE del 2019 establecen estándares de transparencia, explicabilidad y rendición de cuentas aplicables a todo el ciclo de vida de los sistemas de la IA.[13] Dichos lineamientos fueron incorporados en el reglamento europeo de IA, que clasifica los sistemas según su nivel de riesgo y exige a las empresas usuarias —particularmente en el ámbito laboral— realizar evaluaciones de impacto, documentación técnica y supervisión humana en las decisiones automatizadas.[14] Estas exigencias se acercan a los deberes de diligencia reforzada del derecho societario, pues la falta de control o reporte puede comprometer la responsabilidad de los órganos directivos.
En paralelo, la norma ISO/IEC 42001:2023 introduce un Sistema de Gestión de IA certificable que permite a las organizaciones demostrar el cumplimiento estructural mediante políticas de gobernanza y auditoría algorítmica.[15] Aunque su adopción es voluntaria, funciona como indicador de cumplimiento razonable y conecta la ética tecnológica con los mecanismos clásicos de compliance.
La directiva europea sobre trabajo en plataformas, aprobada en el 2024, refuerza este enfoque al ámbito laboral al reconocer el derecho de los trabajadores a recibir información clara sobre las decisiones automatizadas que afectan su situación contractual.[16] De modo similar, la Ley Rider española (RDL 9/2021) exige transparencia algorítmica, lo que consolida una tendencia normativa que redefine la relación entre empresa y trabajador en entornos digitales.[17]
En el contexto latinoamericano, el Perú cuenta con la Ley N.º 29733 de Protección de Datos Personales y su Reglamento actualizado por el DS N.º 016-2024-JUS. Estas normas establecen principios de finalidad y proporcionalidad aplicables a cualquier tratamiento automatizado de datos[18], y aunque no regulan explícitamente la IA, constituyen una base jurídica para exigir diligencia y transparencia en la automatización laboral.
En síntesis, el gobierno corporativo contemporáneo se configura como un sistema de responsabilidad tecnológica en el que la empresa debe prever, auditar y rendir cuentas por los efectos de la IA en los derechos de las personas. Esta transición no crea un nuevo régimen jurídico, sino que actualiza los deberes clásicos de diligencia y supervisión para adecuarlos a la era algorítmica.
La digitalización de la gestión del trabajo ha introducido una capa invisible de control y supervisión que trasciende la relación tradicional entre empleador y trabajador. Los sistemas de IA aplicados a los procesos laborales —como algoritmos de selección, asignación de tareas o evaluación del desempeño—permiten procesar grandes volúmenes de datos y optimizar decisiones, pero también generan riesgos significativos para los derechos fundamentales.[19] Entre los más notorios figuran la discriminación algorítmica, la vigilancia desproporcionada y la falta de transparencia en los criterios que determinan evaluaciones o despidos.
La denominada gestión algorítmica constituye una forma de control empresarial automatizado que modifica los equilibrios clásicos del derecho del trabajo.[20] En el ámbito de la contratación, por ejemplo, herramientas de recruiting basadas en aprendizaje automático han sido cuestionadas por reproducir sesgos de género o edad presentes en los datos históricos utilizados para su entrenamiento.[21] En la evaluación de desempeño, modelos de productividad o sistemas de reconocimiento facial pueden procesar información biométrica sin un consentimiento válido, lo que genera conflictos con los principios de finalidad y proporcionalidad establecidos en la normativa de protección de datos.[22]
En el contexto europeo, el reglamento de IA constituye el primer marco jurídico integral sobre IA a nivel mundial. Su finalidad es garantizar que los sistemas sean seguros, transparentes y respetuosos de los derechos fundamentales mediante un enfoque regulatorio basado en el riesgo. Dentro de esta clasificación, las aplicaciones utilizadas en el ámbito laboral —como los algoritmos de selección, evaluación o control del desempeño— son consideradas sistemas de alto riesgo, lo que impone obligaciones reforzadas a las empresas usuarias: asegurar la calidad y representatividad de los datos, mantener documentación técnica verificable, garantizar la supervisión humana efectiva y realizar evaluaciones de impacto antes de su implementación.[23] No obstante, en la práctica muchas organizaciones carecen de equipos interdisciplinarios capaces de auditar modelos complejos, lo que convierte la trazabilidad algorítmica en un desafío operativo y jurídico significativo.
El riesgo no es puramente tecnológico, sino jurídico-organizacional. Cuando un algoritmo determina el acceso al empleo o un despido, la línea de responsabilidad se difumina entre el proveedor de software y la empresa usuaria. La doctrina europea sostiene que la empresa sigue siendo responsable por las decisiones automatizadas que adopta en su nombre, incluso si el desarrollo del modelo fue delegado a un tercero.[24] Ello deriva del principio de control efectivo: quien decide incorporar un sistema y utiliza sus resultados asume la obligación de garantizar que el proceso sea conforme a derecho.
Los vacíos normativos se manifiestan en tres planos. Primero, en la ausencia de reglas específicas de transparencia algorítmica en la legislación laboral peruana. Aunque la Ley N.º 29733 exige informar sobre el tratamiento de datos personales, no obliga a revelar la lógica interna de los algoritmos ni sus criterios de decisión. Segundo, en la debilidad institucional para fiscalizar el uso de la IA en el ámbito privado, pues la Autoridad Nacional de Protección de Datos carece de capacidad técnica para auditar modelos predictivos complejos. Y tercero, en la falta de mecanismos procesales que permitan al trabajador impugnar una decisión automatizada o exigir acceso a las métricas utilizadas.[25]
En el plano comparado, algunas jurisdicciones ofrecen referentes útiles. España, mediante la Ley Rider (RDL 9/2021), obliga a informar a los representantes de los trabajadores sobre los parámetros, reglas e instrucciones en que se basan los algoritmos que afectan las condiciones laborales.[26] Italia y Francia han incorporado disposiciones similares en el trabajo en plataformas, reconociendo el derecho a la intervención humana. En América Latina, el debate recién empieza. Brasil discute un proyecto de marco legal de la IA inspirado en los estándares europeos, mientras que Chile ha introducido principios de transparencia y explicabilidad en su Estrategia Nacional de Inteligencia Artificial.[27]
Los efectos de esta falta de armonización se trasladan a la práctica empresarial cotidiana. Sin una regulación clara, las empresas pueden utilizar sistemas de decisión opacos y difíciles de supervisar judicialmente. En casos recientes, tribunales laborales europeos han comenzado a exigir a las compañías la entrega de la lógica algorítmica subyacente para evaluar posibles sesgos, lo que abre la posibilidad de una futura jurisprudencia sobre «debido proceso algorítmico».[28] En el Perú aún no existen precedentes equivalentes, pero los principios constitucionales de igualdad y dignidad humana ofrecen una base sólida para el control judicial de decisiones automatizadas.
En definitiva, la gestión algorítmica del trabajo revela una zona gris entre innovación y tutela de derechos, donde la empresa se convierte en un actor tecnológico que debe asumir obligaciones de diligencia ampliada. Los vacíos regulatorios no pueden interpretarse como ausencia de deberes, sino como oportunidad para fortalecer la responsabilidad corporativa. Incorporar mecanismos de auditoría algorítmica, transparencia de datos y evaluación de impactos, se perfila como una extensión natural del gobierno corporativo y del compliance laboral, destinada a garantizar que la digitalización no erosione los principios esenciales del trabajo digno.
El tránsito hacia una economía digitalizada exige revisar los fundamentos clásicos del gobierno corporativo. La incorporación de la IA en la toma de decisiones empresariales amplía el campo de responsabilidad más allá de los ámbitos financiero, ambiental o social, creando la necesidad de una responsabilidad corporativa digital. Este concepto alude al deber de las empresas de prever, evaluar y mitigar los impactos derivados del uso de sistemas algorítmicos en sus operaciones y en los derechos de las personas que integran o se relacionan con la organización.[29]
Desde la perspectiva jurídica, la responsabilidad corporativa digital se sustenta en los principios de debida diligencia y rendición de cuentas, propios del derecho societario, trasladados al ámbito tecnológico sin alterar su naturaleza. La OCDE ha subrayado que los directorios deben garantizar la integridad de la información y el control de riesgos emergentes, lo que incluye el uso ético de datos y algoritmos.[30] Bajo este enfoque, la empresa que adopta sistemas de IA para gestionar personal o clientes asume la obligación de asegurar que sus procesos sean trazables, explicables y auditables, aun cuando el software haya sido desarrollado por terceros.
El AI Act europeo refuerza esta visión al exigir que los usuarios empresariales de sistemas de alto riesgo implementen mecanismos de gestión continua, documentación técnica y supervisión humana.[31] Estas obligaciones se complementan con el estándar ISO/IEC 42001:2023, que introduce el Artificial Intelligence Management System, un sistema de gestión certificable diseñado para integrar la gobernanza de la IA dentro de los procesos organizacionales. Este modelo, basado en el ciclo PDCA (plan–do–check–act), permite establecer políticas, medir riesgos y verificar la calidad de los datos, fortaleciendo la trazabilidad de los modelos.[32] En conjunto, el AI Act y la ISO 42001 conforman una nueva capa de compliance tecnológico, comparable a los programas de integridad, anticorrupción o prevención de lavado de activos.
La auditoría algorítmica se erige como el principal instrumento para materializar la responsabilidad digital. Consiste en el examen sistemático de los modelos de IA para identificar sesgos, errores o impactos no deseados sobre grupos de interés.[33] A nivel técnico, puede apoyarse en métricas de equidad, pruebas de robustez y documentación del proceso de entrenamiento. Desde la óptica jurídica, implica revisar la compatibilidad del sistema con principios constitucionales y laborales, especialmente los de igualdad, intimidad y debido proceso. La literatura comparada sugiere que la auditoría debe ser multidisciplinaria, combinando perfiles jurídicos, informáticos y éticos, y ejecutarse antes, durante y después de la implementación del sistema.[34]
En el ámbito corporativo peruano, la auditoría algorítmica podría integrarse dentro de los programas de cumplimiento ya regulados en materia de integridad y anticorrupción (Ley 30424).[35] Aprovechar estas estructuras permitiría supervisar también los riesgos tecnológicos sin crear órganos completamente nuevos. Al mismo tiempo, la Superintendencia del Mercado de Valores podría emitir lineamientos que incorporen el riesgo algorítmico dentro de las políticas de gobernanza, siguiendo la tendencia de los reguladores europeos y latinoamericanos.
Un modelo básico de AI compliance para el contexto empresarial peruano podría estructurarse en tres niveles:
Gobernanza corporativa: designar a un responsable de IA dentro del directorio y adoptar políticas sobre desarrollo y uso ético de algoritmos.
Gestión de riesgos y auditoría: implementar evaluaciones de impacto algorítmico y auditorías periódicas independientes que verifiquen la calidad y equidad del sistema.
Transparencia y reparación: establecer mecanismos internos para que los trabajadores o usuarios puedan cuestionar decisiones automatizadas y solicitar revisión humana efectiva.
Estas medidas se alinean con la noción de debido proceso algorítmico, que busca trasladar las garantías tradicionales del derecho administrativo y laboral al terreno digital.[36] No pretender frenar la innovación, sino asegurar que la automatización sea compatible con la dignidad humana y la responsabilidad social de la empresa.
En términos económicos, la responsabilidad digital también genera valor. Estudios del World Economic Forum indican que las organizaciones con marcos sólidos de gobernanza de IA logran mayor confianza pública y reducen los costos derivados de litigios o crisis reputacionales.[37] Adoptar políticas de trazabilidad y auditoría no solo cumple una función ética o legal, sino que constituye una estrategia de sostenibilidad y competitividad en los mercados internacionales.
En síntesis, la responsabilidad corporativa digital redefine el papel del derecho corporativo frente a la IA. La empresa, como actor tecnológico, debe responder por las decisiones de sus algoritmos con el mismo estándar de diligencia que rige en las áreas financiera o ambiental. Incorporar la auditoría algorítmica dentro del compliance empresarial es el paso necesario para garantizar que la innovación tecnológica no se traduzca en un déficit de derechos, sino en un modelo de desarrollo responsable y humanizado.
La incorporación de la IA en la gestión del trabajo representa uno de los mayores desafíos contemporáneos para el derecho corporativo. La automatización de procesos de selección, evaluación y control laboral no solo optimiza la eficiencia empresarial, sino que también introduce nuevas formas de asimetría y riesgo jurídico. La evidencia comparada demuestra que los marcos normativos tradicionales de gobierno corporativo y compliance resultan insuficientes para abordar los impactos de la gestión algorítmica del trabajo, donde decisiones automatizadas pueden afectar derechos fundamentales sin intervención humana directa.[38]
El análisis desarrollado en este artículo permite sostener que la responsabilidad corporativa digital constituye la evolución natural del deber de diligencia empresarial. Este concepto integra la ética tecnológica dentro del sistema de gobierno corporativo y reconoce que los algoritmos forman parte de la toma de decisiones, por lo que también deben ser objeto de control jurídico. En este sentido, los principios de transparencia, explicabilidad y trazabilidad —presentes en el AI Act europeo, los principios de la OCDE y el estándar ISO/IEC 42001— deben incorporarse gradualmente a la práctica corporativa nacional.[39]
Desde la perspectiva peruana, la ausencia de normas específicas no implica un vacío normativo absoluto. Los principios de la Ley N.º 29733, así como el deber de prevención y control de riesgos previsto en la Ley N.º 30424, ofrecen una base jurídica suficiente para extender los programas de compliance al ámbito tecnológico.[40] El reto consiste en desarrollar lineamientos que orienten a las empresas sobre cómo auditar sus sistemas algorítmicos y garantizar que la digitalización sea compatible con la protección de los derechos laborales y constitucionales.
Entre las recomendaciones derivadas del estudio destacan: a) designar responsables de IA en los directorios y adoptar políticas internas de transparencia algorítmica; b) integrar evaluaciones de impacto y auditorías técnicas en los programas de cumplimiento corporativo; y c) promover la cooperación entre sector privado, reguladores y academia para establecer estándares nacionales de gobernanza de IA. Estas medidas fortalecerían la rendición de cuentas y reducirían la brecha entre innovación tecnológica y protección de derechos.
En última instancia, la transformación digital de las empresas plantea una pregunta central para el derecho corporativo: ¿puede una organización ser éticamente responsable si no comprende ni controla las decisiones de sus algoritmos? La respuesta afirmativa exige reconocer que la IA, como cualquier herramienta de gestión, debe estar sometida a la ley y a la supervición humana. La responsabilidad corporativa digital no es una categoría futura, sino el nuevo estándar de diligencia empresarial que delimitará la frontera entre la innovación sostenible y la automatización irresponsable.
1. International Labour Organization (ILO), Algorithmic management and digital monitoring of work (Ginebra: OIT, s. f.), https://joint-research-centre.ec.europa.eu/projects-and-activities/employment/algorithmic-management-and-digital-monitoring-work_en
2. ILO, Algorithmic management and digital…
3. Organisation for Economic Co-operation and Development (OECD), OECD AI principles (Pa-rís: OECD, 2019/2024), https://www.oecd.org/en/topics/sub-issues/ai-principles.html
4. European Parliament and Council. Regulation (EU) 2024/1689 of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union, L 2024/1689, 12 de julio de 2024.
5. Council of the European Union, «Platform workers: Council adopts new rules to improve their working conditions», Comunicado de prensa, 14 de octubre de 2024, https://www.consilium.europa.eu/en/press/press-releases/2024/10/14/platform-workers-council-adopts-new-ru-les-to-improve-their-working-conditions/
6. International Organization for Standardization, ISO/IEC 42001:2023 Artificial Intelligence Management System (AIMS) (Ginebra: ISO, 2023). https://www.iso.org/standard/81230.html
7. Gobierno del Perú, Ley N.º 29733, Ley de Protección de Datos Personales, Diario Oficial El Peruano, 3 de julio de 2011; Decreto Supremo N.º 016-2024-JUS, Reglamento de la Ley 29733, Diario Oficial El Peruano, 2024.
8. Valerio De Stefano y Antonio Aloisi, Your boss is an algorithm: Artificial intelligence, platform work and labour rights (Oxford: Hart Publishing, 2022).
9. Simon Deakin, «Reconceptualising the Corporation in the Era of AI: Labour, Governance, and Responsibility», Industrial Law Journal 50, n.° 4 (2021): 512–538.
10. ILO, Algorithmic management and digital…
11. Organisation for Economic Cooperation and Development (OECD), OECD Principles of Cor-porate Governance (París: OECD Publishing, 2023).
12. Superintendencia del Mercado de Valores, Código de buen gobierno corporativo para las sociedades peruanas (Lima: SMV, 2020).
13. OECD, OECD AI Principles, https://www.oecd.org/en/topics/sub-issues/ai-principles.html?utm_source=chatgpt.com
14. European Parliament and Council. Regulation (EU) 2024/1689 of 13 June 2024…
15. International Organization for Standardization, ISO/IEC 42001:2023 Artificial Intelligence…
16. Council of the European Union, «Platform workers: Council adopts new rules…»
17. Government of Spain, Real Decreto-Ley 9/2021, Boletín Oficial del Estado, 12 de mayo de 2021.
18. Congreso de la República, Ley N.° 29733...; Decreto Supremo N.° 016-2024-JUS...
19. ILO, Algorithmic management and digital…
20. De Stefano y Aloisi, Your boss is an algorithm…
21. Reuters, «Amazon scraps secret ai recruiting tool that showed bias against women», Reuters Technology News, 11 de octubre de 2018, https://www.reuters.com/article/amazon-ai-recrui-ting-bias-idUSKCN1MK08G
22. Congreso de la República, Ley N.° 29733...; Decreto Supremo N.º 016-2024-JUS...
23. European Parliament and Council. Regulation (EU) 2024/1689 of 13 June 2024…
24. European Commission. «Commission Publishes Guidelines on Prohibited Artificial Intelligence (AI) Practices as Defined in the AI Act». Brussels: European Commission, 29 de abril de 2024. https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act
25. Autoridad Nacional de Protección de Datos Personales (Perú), Memoria Institucional 2023,Lima, 2024.
26. Government of Spain, Real Decreto-Ley 9/2021, Boletín Oficial del Estado, 12 de mayo de 2021.
27. Ministério da Ciência, Tecnologia e Inovações (Brasil), Projeto de Lei n.º 2.338/2023 — Marco Legal da Inteligência Artificial (Brasília: MCTI, 2023); Gobierno de Chile, Estrategia Nacional de Inteligencia Artificial (Santiago: Ministerio de Ciencia, Tecnología, Conocimiento e Innovación, 2021).
28. Tribunal de Justicia de la Unión Europea (TJUE), Asunto C-634/21 Yodel Delivery v. Platform Ltd., Sentencia del 12 julio de 2023.
29. Shoshana Zuboff, The age of surveillance capitalism (New York: Public Affairs, 2019), 247–251.
30. Organisation for Economic Co-operation and Development (OECD), OECD Principles of Cor-porate Governance (Paris: OECD Publishing, 2023).
31. European Parliament and Council. Regulation (EU) 2024/1689 of 13 June 2024…
32. International Organization for Standardization, ISO/IEC 42001:2023 Artificial Intelligence…
33. Finale Doshi-Velez y Mason Kortz, «Accountability of AI systems: A framework for auditing machine learning», Berkman Klein Center Research Publication No. 2022-4 (Harvard Law School, 2022).
34. De Stefano y Aloisi, Your boss is an algorithm…
35. Congreso de la República, Ley N.º 30424, Ley que regula la responsabilidad administrativa de las personas jurídicas por el delito de cohecho activo transnacional, Diario Oficial El Peruano, 21 de abril de 2016.
36. Tribunal de Justicia de la Unión Europea (TJUE), Asunto C-634/21 Yodel Delivery v. Platform Ltd., Sentencia de 12 julio 2023.
37. World Economic Forum. Empowering AI Leadership: AI C-Suite Toolkit. Ginebra: World Econo-mic Forum, 2022. https://www3.weforum.org/docs/WEF_Empowering-AI-Leadership_Over-sight-Toolkit.pdf
38. ILO, Algorithmic management and digital…
39. European Parliament and Council. Regulation (EU) 2024/1689 of 13 June 2024…; Organisa-tion for Economic Co-operation and Development (OECD), OECD AI Principles, https://www.oecd.org/en/topics/sub-issues/ai-principles.html ; International Organization for Standardiza-tion, ISO/IEC 42001:2023 Artificial Intelligence…
40. Congreso de la República, Ley N.° 29733...; Congreso de la República, Ley N.º 30424…
Autoridad Nacional de Protección de Datos Personales (Perú). Memoria Institucional 2023. Lima: ANPD, 2024.
Congreso de la República. Ley N.º 29733, Ley de Protección de Datos Personales. Diario Oficial El Peruano, 3 de julio de 2011. https://www.gob.pe/institucion/congreso-de-la-republica/normas-legales/243470-29733
Congreso de la República. Ley N.º 30424, Ley que regula la responsabilidad administrativa de las personas jurídicas por el delito de cohecho activo transnacional, Diario Oficial El Peruano, 21 de abril de 2016.
Council of the European Union. «Platform workers: Council adopts new rules to improve their working conditions». Comunicado de prensa, 14 de octubre de 2024. https://www.consilium.europa.eu/en/press/press-releases/2024/10/14/platform-workers-council-adopts-new-rules-to-improve-their-working-conditions/
De Stefano, Valerio y Antonio Aloisi. Your boss is an algorithm: Artificial intelligence, platform work and labour regulation. Oxford: Hart Publishing, 2022.
Doshi-Velez, Finale y Mason Kortz. «Accountability of AI systems: A framework for auditing machine learning. Cambridge, MA: Harvard Law School, Berkman Klein Center Research Publication No. 2022-4, 2022.
European Commission. «Commission publishes guidelines on prohibited artificial intelligence (AI) practices as defined in the AI Act.» Brussels: European Commission, 29 de abril de 2024. https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act
European Parliament and Council. Regulation (EU) 2024/1689 of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union, L 2024/1689. 12 de julio de 2024. http://data.europa.eu/eli/reg/2024/1689/oj
Gobierno de Chile. Estrategia Nacional de Inteligencia Artificial. Santiago: Ministerio de Ciencia, Tecnología, Conocimiento e Innovación, 2021.
Government of Spain. Real Decreto-Ley 9/2021, de 11 de mayo, por el que se adoptan medidas urgentes para garantizar los derechos laborales de las personas dedicadas al reparto en el ámbito de plataformas digitales. Boletín Oficial del Estado, 12 de mayo de 2021.
International Labour Organization (ILO). Algorithmic management and digital monitoring of work. Ginebra: ILO, s. f. https://joint-research-centre.ec.europa.eu/projects-and-activities/employment/algorithmic-management-and-digital-monitoring-work_ en
International Organization for Standardization. ISO/IEC 42001:2023 Artificial Intelligence Management System (AIMS). Ginebra: ISO, 2023. https://www.iso. org/standard/81230.html
Ministério da Ciência, Tecnologia e Inovações (Brasil). Projeto de Lei n.º 2.338/2023 — Marco Legal da Inteligência Artificial. Brasília: MCTI, 2023.
Organisation for Economic Co-operation and Development (OECD), OECD Principles of Corporate Governance. París: OECD Publishing, 2023.
Organisation for Economic Co-operation and Development (OECD). OECD AI principles. París: OECD, 2019/2024. https://www.oecd.org/en/topics/sub-issues/ai-principles.html
Reuters. «Amazon scraps secret ai recruiting tool that showed bias against women». Reuters Technology News, 11 de octubre de 2018. https://www.reuters.com/article/amazon-ai-recruiting-bias-idUSKCN1MK08G
Superintendencia del Mercado de Valores. Código de buen gobierno corporativo para las sociedades peruanas. Lima: SMV, 2020.
Tribunal de Justicia de la Unión Europea (TJUE). Asunto C-634/21 Yodel Delivery v.
Platform Ltd. Sentencia del 12 de julio de 2023.
World Economic Forum. Empowering AI leadership: AI C-Suite Toolkit. Ginebra: World Economic Forum, 2022. https://www3.weforum.org/docs/WEF_Empowering-AI-Leadership_Oversight-Toolkit.pdf
Zuboff, Shoshana. The age of surveillance capitalism. New York: Public Affairs, 2019.
Las autoras no presentan conflicto de intereses.
Autofinanciado
Dina Meza Monge es jueza superior titular del Poder Judicial del Perú y abogada con especialización en Derecho Constitucional y Laboral. Ha participado en actividades académicas y de capacitación judicial orientadas al fortalecimiento del razonamiento jurídico y la protección de derechos fundamentales. Su labor jurisdiccional se ha enfocado en materias constitucionales y sociolaborales. Está interesada en el estudio del impacto de la inteligencia artificial y la digitaliza-ción en la justicia laboral y el debido proceso.
Alejandra Vargas Tamariz es abogada por la Pontificia Universidad Católica del Perú. Orienta su formación y práctica profesional en el derecho del trabajo y la protección frente al despido arbitrario. Ha participado en investigaciones sobre derecho laboral comparado y relaciones colectivas de trabajo. Sus áreas de interés incluyen los derechos fundamentales en el empleo, la igualdad de oportunidades y los efectos de la transformación digital en las relaciones laborales.
Soledad Cornejo Meza es estudiante de Derecho e investigadora asistente en proyectos interdisciplinarios sobre inteligencia artificial, patrimonio cultural y humanidades digitales en la Pontificia Universidad Católica del Perú. Es docente en cursos de programación y pensamiento computacional aplicados a la comunicación y las ciencias sociales. Sus intereses de investigación se orientan al uso ético de la IA, la transparencia algorítmica y las intersecciones entre tecnología, cultura y derecho.