Los neuroderechos laborales, ¿necesario o prescindible reconocimiento jurídico?

Neuro-rights in the workplace: necessary or unnecessary legal recognition?

María Belén Cardona Rubert*

Catedrática de Derecho del Trabajo y de la Seguridad Social. Universidad de Valencia, España

Correo electrónico: cardonab@uv.es

Código ORCID: 0000-0002-9260-6207

RESUMEN: Los avances en la neurociencia y la neurotecnología facilitan una mayor y más profunda interpretación de la actividad neuronal y la posibilidad de manipulación cerebral directa. Las implicaciones de tipo ético, moral y sociales que pueden derivarse del acceso por agentes externos a los datos cerebrales individuales es una cuestión de suma relevancia reivindicar un marco que proteja la seguridad y privacidad de los datos neuropsicológicos y que proporcione, en definitiva, una tutela eficaz a la integridad y la autonomía de las personas frente a las nuevas amenazas. Ante dichos avances y aplicaciones a la vida humana, aparece el debate sobre la necesidad y/o conveniencia de propugnar la reconceptualización de determinados derechos humanos, o incluso la creación de nuevos derechos para proteger a las personas de posibles daños y que obligaría a una reconceptualización ética y jurídica. El Derecho del Trabajo no debe permanecer impertérrito ante este debate sobre el reconocimiento de neuroderechos de los trabajadores sino, por el contrario, participar de él a para proteger los derechos de los trabajadores y garantizar, así, un entorno laboral justo.

ABSTRACT: Advances in neuroscience and neurotechnology facilitate a greater and deeper understanding of neural activity and the possibility of direct brain manipulation. The ethical, moral and social implications that may arise from external agents accessing individual brain data are a matter of utmost importance. It is essential to establish a framework that protects the security and privacy of neuropsychological data and, ultimately, provides effective protection for the integrity and autonomy of individuals in the face of new threats. In view of these advances and applications to human life, there is a debate about the need and/or advisability of advocating the reconceptualisation of certain human rights, or even the creation of new rights to protect individuals from possible harm, which would require an ethical and legal reconceptualisation. Labour law should not remain unmoved by the debate on the recognition of workers’ neurorights but, on the contrary, should participate in it in order to protect workers’ rights and thus guarantee a fair working environment.

PALABRAS CLAVE: datos cerebrales, manipulación cognitiva, neuroderechos laborales, seguridad y privacidad neuropsicológica.

KEYWORDS: brain data, cognitive manipulation, neuro-employment rights, neuropsychological security and privacy.

SUMARIO: I. Consideraciones previas. II. Neurociencia y neurotecnología puertas de acceso al conocimiento profundo del individuo. III. El debate sobre la necesidad del reconocimiento de los neuroderechos. IV. ¿Es necesaria una específica protección legal de los neuroderechos? V. ¿Podemos hablar de neuroderechos laborales? VI. Conclusiones.

 

I.        CONSIDERACIONES PREVIAS

La tecnología ha alcanzado cuotas inimaginables, apenas hace unas décadas, que definen y marcan el ritmo del progreso de la humanidad y de la sociedad en su conjunto. Pasando de ser un factor más de progreso, tenido en consideración junto a otros, a situarse en el epicentro de las políticas económicas y sociales, con capacidad de condicionar la estabilidad de los gobiernos y de los propios sistemas políticos.

Si hay algo que define nuestra época es la digitalización y su impacto sobre la economía y la sociedad. Una época definida por las transformaciones que la revolución digital ha propiciado en las relaciones humanas. La digitalización cambia definitivamente la manera de comunicarnos y relacionarnos, así como la forma de trabajar y de crear valor.

La tecnología impulsa el progreso, al tiempo que condiciona y determina los sistemas de relaciones sociales e industriales. Es en la empresa y en la relación vertical que se establece entre el empleador y sus trabajadores en las que resultan visibles muchos de los efectos de su implantación. Dichos efectos son incuestionablemente positivos, pero a ellos se suman otros cuyas bondades son menos reconocibles, nos referimos a los riesgos derivados para la esfera de los derechos fundamentales de las personas trabajadoras.

Los cambios impulsados por el avance de la tecnología han alcanzado lo que parece, hasta el momento, su cima con la introducción y utilización de la inteligencia artificial (IA), no solo desde una perspectiva global sino, particularmente, en el mundo del trabajo. Para las relaciones laborales, la IA es más que una herramienta utilísima, tanto para su gestión como para la ejecución de la prestación laboral, presentándose como un agente transformador para la reconfiguración de la empresa.

Las tecnologías digitales abren nuevos escenarios para la organización del trabajo y la ejecución de la prestación laboral. Esta transformación nos sitúa en un escenario de no retorno que obliga, ineludiblemente, a considerar la perspectiva de la garantía de los derechos digitales como uno de los retos más importantes a regular.

En este escenario la IA emerge con un potencial transformador único y exponencialmente superior a las tecnologías que la han precedido, implicando desafíos y oportunidades que requieren una revisión crítica de las normativas laborales actuales. Puede decirse, sin temor a formular expresiones grandilocuentes, que la introducción de los algoritmos en la gestión del personal ha revolucionado absolutamente los sistemas de trabajo y los modelos organizativos de la empresa.

Es fundamental considerar cómo el derecho del trabajo debe adaptarse para proteger los derechos de los trabajadores y garantizar un entorno laboral justo.

En este contexto de avances, la neurociencia y neurotecnología, sumadas a la extensión de la inteligencia artificial a todos los ámbitos de la vida social y económica abren la puerta de acceso a información relevante para adentrarnos en el nivel cognitivo y en el conocimiento de las razones y motivaciones profundas del comportamiento y conducta humanas.

II.         NEUROCIENCIA Y NEUROTECNOLOGÍA PUERTAS DE ACCESO AL CONOCIMIENTO PROFUNDO DEL INDIVIDUO

La evolución de la tecnología abre posibilidades inexploradas de acceso al cerebro humano, posibilidades sin precedentes para acceder, recopilar, compartir y manipular información del cerebro humano.

La neurotecnología hace referencia a los dispositivos y procedimientos utilizados para acceder, controlar, investigar, evaluar, manipular y/o emular la estructura y función de los sistemas neuronales de animales o seres humanos.

La utilización de la neurotecnología combinada con la IA en el ámbito clínico y en el de la investigación científica es, desde hace tiempo, una realidad. Sus beneficios para el bienestar humano son, a todas luces, incuestionables. Así, la mejora de los procesos de detección y predicción de trastornos neurológicos, mediante la identificación de patrones que indiquen la presencia de enfermedades neurológicas o de la calidad de vida de las personas con discapacidades físicas y neurológicas, los implantes cocleares, el control de prótesis robóticas por la mente, la mejora de la neuroplasticidad o el tratamiento de la depresión, con estimulación cerebral profunda, son algunas de las aplicaciones que contribuyen al bienestar humano.

Estos y otros avances han coadyuvado a un incremento en el uso y la accesibilidad de las neurotecnologías. En principio, utilizadas con fines clínicos y de investigación o por personas interesadas en mejorar sus capacidades cognitivas (neuroenhancement), desde el momento que dichas tecnologías se incorporan en dispositivos neurotecnológicos comercializados, objetos de consumo, proyectan su implantación en otros entornos como los educativos, los del marketing (neuromarketing), entornos de entretenimiento o laborales.

En los últimos años, varias aplicaciones de neurotecnología han llegado al mercado y ahora se integran en dispositivos de consumo para usuarios con fines extra clínicos. Hoy en día, las aplicaciones de la neurotecnología incluyen interfaces cerebro-ordenador, las conocidas como BCI, según su acrónimo anglosajón, para el control de dispositivos o la neuromonitorización en tiempo real, sistemas de conducción de vehículos basados en neurosensores, herramientas de entrenamiento cognitivo, estimulación cerebral eléctrica y magnética, dispositivos wearables para el bienestar mental y sistemas de realidad virtual. La mayoría de estas aplicaciones utilizan registros de electroencefalografía (EEG) para monitorizar la actividad eléctrica del cerebro con diversos fines, entre los que se incluyen la neuromonitorización (evaluación en tiempo real del funcionamiento cerebral), el entrenamiento neurocognitivo (utilizando determinadas bandas de frecuencia para mejorar las funciones neurocognitivas) y el control de dispositivos. Estas tecnologías se utilizan cada vez más como accesorios portátiles para las actividades cotidianas.

Junto a esta modalidad de utilización de neurotecnología no invasiva, conocida como «neurotecnología omnipresente»1, se sitúa otra, a partir de la cual resultaría posible acceder a «una cartografía humana exhaustiva»2, que permitiría conocer las emociones, intenciones y estados de ánimo, dejando de ser la mente la fortaleza inexpugnable que conteniendo todas ellas, las tutela.

Se abriría la puerta del yo inconsciente, que habilitaría el acceso a terceros de una información de gran relevancia, salvaguardada a priori por la voluntad del propio sujeto titular de la misma, facultado para dar traslado parcial o total a su mundo interior. Esta información facilitaría un conocimiento completo y, en ocasiones, superior o, como mínimo, más extenso y complejo del que el propio sujeto puede tener de sí mismo, aun partiendo de individuos con capacidad contrastada de introspección y auto reflexión.

La neurociencia y la neurotecnología están avanzando a pasos agigantados, permitiendo una mayor y más profunda interpretación de la actividad neuronal y la posibilidad de manipulación cerebral directa —un ámbito en el que puede resultar muy visual lo que estamos señalando es el ámbito del neuromarketing—. Se trata de tecnologías que facilitan el acceso a la identidad más profunda del individuo, proporcionando información «que permite comprender, en última instancia, la conciencia y el pensamiento individual de cada persona. Podría decirse que, a su través, se hace posible entrar en la intimidad de la intimidad»3.

De manera que se estaría permitiendo su uso y, por lo tanto, el aprovechamiento de sus utilidades, particularmente, registrar, analizar y manipular la actividad cerebral sin, a priori, disponer de un marco jurídico que proscriba que el mismo pueda realizarse por personas sin la formación requerida o bajo la supervisión adecuada.

Es sencillo vislumbrar las implicaciones de tipo ético, moral, neuropsicológicas y sociales que pueden derivarse del acceso por agentes externos a los datos cerebrales individuales por lo que, sin duda, es una cuestión de suma relevancia reivindicar un marco que proteja la seguridad y privacidad de los datos neuropsicológicos y que proporcione, en definitiva, una tutela eficaz a la integridad y la autonomía de las personas frente a las nuevas amenazas.

A través de estas tecnologías se penetraría en la última frontera de la intimidad: el pensamiento. Se resquebrajaría, así, la idea de la mente como «último refugio de la libertad personal y la autodeterminación personal»4.

Los avances neurocientíficos y neurotecnológicos permiten el desbloqueo progresivo del cerebro humano y proporcionan información sobre los procesos cerebrales, así como sobre su relación con los estados mentales y el comportamiento observable. E, incluso, permite ir más allá, facilitando el adentramiento en el ámbito de las intenciones, opiniones y actitudes de las personas, a partir de la descodificación de la actividad cerebral.

 

III.        EL DEBATE SOBRE LA NECESIDAD DEL RECONOCIMIENTO DE LOS NEURODERECHOS

Algunos de los avances y aplicaciones de estas tecnologías a la vida humana pueden comportar, como señalábamos, importantes riesgos para la esfera de los derechos humanos. La posibilidad de saber cómo controlar las emociones, identificar los pensamientos o acceder a la memoria, puede llegar a ser una amenaza para la salud mental de los seres humanos. Es precisamente desde este enfoque, cuando surge el debate sobre la necesidad y/o conveniencia de propugnar la reconceptualización de determinados derechos humanos, o incluso la creación de nuevos derechos para proteger a las personas de posibles daños, que obligaría a una reconceptualización ética y jurídica. Cobraría, así, sentido la defensa del derecho a la neuroprotección, un seudo nuevo derecho, entendido como la categoría que abrazaría un contenido múltiple de neuroderechos que se traduciría en facultades invocables por las personas frente a ataques o transgresiones arbitrarias y que demandaría, al tiempo, acciones positivas por parte de la comunidad internacional y los estados, dirigidas a brindar dicha protección.

Los mayores impulsores de esta tendencia han sido los biólogos, neurocientíficos y neurotecnólogos. Son conocidos los trabajos de IENCA Y ADORNO pero, sobre todo, los liderados por YUSTE.

Para IENCA y ADORNO, el derecho a la neuroprotección incluiría el derecho a la libertad cognitiva, el derecho a la privacidad mental, el derecho a la integridad mental y el derecho a la continuidad psicológica5. Siguiendo a YUSTE y GOERING, son cuatro los núcleos sobre los que se extiende la preocupación sobre las implicaciones del empleo de las neurotecnologías, a saber, la identidad, la privacidad, el libre albedrío y el sesgo. Según estos autores dichas áreas deben convertirse en derechos para garantizar su tutela. En línea con este planteamiento, YUSTE aboga por la inclusión de los neuroderechos en el catálogo de derechos humanos incluidos en la Declaración Universal de Derechos Humanos6.

En la evolución académica de este concepto, cabe citar los trabajos del grupo «Morningside», liderado por YUSTE, propugnando una categoría de nuevos derechos humanos, los neuroderechos, con la finalidad de proteger la actividad cerebral y los datos del cerebro. Según estos trabajos, el genérico derecho a la neuroprotección abarcaría hasta cinco neuroderechos: el derecho a la identidad o la capacidad de controlar tanto la integridad física como mental; el derecho a la libertad de pensamiento y el libre albedrío para elegir las propias acciones; el derecho a la privacidad mental; el derecho al acceso equitativo a los beneficios sobre la capacidad sensorial y mental a través de la neurotecnología; y el derecho a la protección contra el sesgo algorítmico7.

El derecho a la identidad, garantizaría el control sobre la integridad física y mental, evitando la introducción de alteraciones que comprometan la esencia personal. El Libre albedrío, preservaría, básicamente, la capacidad individual de elegir sin interferencias tecnológicas; que puedan llegar a condicionar las decisiones, ya que a través de la manipulación cognitiva, se puede influir en decisiones y comportamientos sin consentimiento explícito, generando riesgos éticos graves. En cuanto a la privacidad mental, protegería la información cerebral frente a accesos indebidos, reconociendo la mente como última frontera de la intimidad. Por lo que se refiere al derecho al acceso equitativo a los beneficios sobre la capacidad sensorial y mental a través de la neurotecnología, este derecho se refiere a que los beneficios sobre el incremento y mejora de dichas capacidades sean accesibles y distribuidas entre la población y que no queden preservados a algunas élites. Estaríamos hablando de intervenciones médicas, psicológicas, pero, sobre todo, de estructuras tecnológicas e institucionales externas que apoyen y mejoren la cognición y que, de no garantizar ese acceso equitativo entre ciudadanos, generarían resultados contrarios al principio de igualdad y, por lo tanto, servirían para consagrar sociedades más injustas8.

Por último, la protección contra el sesgo algorítmico, evitaría que sistemas de inteligencia artificial reproduzcan discriminaciones que afectan al principio de igualdad y no discriminación, ya que el uso de perfiles neurocognitivos puede generar sesgos y exclusiones injustificadas en ámbitos laborales y sociales. “Una de las caras más oscuras de la inteligencia artificial es que puede contribuir a generar una onda expansiva de las causas de discriminación prohibidas, incrementando adicionalmente la vulnerabilidad de las personas por sus características personales”9, características de todo tipo: físicas, psíquicas, de género, edad, raza, origen nacional, orientación o condición sexual, o características neurocognitivas.

En este contexto, se abre, sin duda, para la Academia la oportunidad de debatir sobre el sentido y el alcance de estos derechos. Desde las posiciones más innovadoras, se sostiene la pertinencia de su consideración como nuevos derechos emergentes, que exigirían la configuración de un nuevo marco jurídico internacional y de derechos humanos, entendido como un nuevo conjunto de derechos humanos para el cerebro10.

Desde posiciones más conservadoras, se propugnaría, sin negar la existencia del derecho a la protección de la actividad cerebral y los datos neuronales, proceder a su encaje en categorías existentes de derechos, mediante su reformulación o meramente su extensión, para evitar un escenario de inflación de derechos debilitados y excesivamente fragmentados. Desde esta posición se reivindicaría el marco jurídico existente como capaz de ofrecer una tutela eficaz, pero sin negar la necesidad de completarla, a través de previsiones legales específicas.

Se cual sea la posición que se adopte, es indudable que nos hallamos ante cuestiones que, aunque pudieran parecer proyecciones hacia el futuro, son cuestiones de un presente “altamente dinámico en el cual se logran avances científicos y tecnológicos de unas características y a una velocidad sin precedentes en la historia de la humanidad” y que obligan a acelerar los esfuerzos por definir y concretar ese marco de neuroderechos, con capacidad de garantizar una suerte de escudo protector, que tutele a los individuos de injerencias ilegítimas en el aspecto más reservado y vulnerable del ser humano. Así lo señala la Ley modelo de neuroderechos para América Latina y el Caribe, en su preámbulo11.

Sería una ingenuidad eludir este debate. Nuestra historia más reciente nos demuestra que la tecnología evoluciona a un ritmo imposible de seguir por el regulador y es esta elevada capacidad evolutiva y de transformación de las tecnologías la que empuja e, incluso, obliga a los legisladores contemporáneos a abandonar los planteamientos meramente reactivos para adoptar actitudes proactivas, procurando acompañar e, incluso, si ello fuera posible anticiparse a los escenarios de su implantación y empleo en los diversos ámbitos de la sociedad, aportando soluciones regulatorias.

Como mínimo, los continuos avances en neurotecnología abocan a la evaluación del marco de los derechos humanos, desde la perspectiva conceptual y jurídica, analizando si está lo suficientemente bien pertrechado para hacer frente a los nuevos desafíos. De las conclusiones de dicha evaluación podrían beneficiarse tanto los desarrolladores e investigadores de estas tecnologías, como los individuos.

IV. ¿ES NECESARIA UNA ESPECÍFICA PROTECCIÓN LEGAL DE LOS NEURODERECHOS?: EL MARCO REGULATORIO EXISTENTE

Los retos tecnológicos a los que se enfrenta el mundo actual no tienen precedentes. La neurotecnología es una manifestación más de este hecho, su rápido desarrollo y su enorme potencial transformador plantea indudables retos en materia de derechos fundamentales. Se trata de derechos no previstos, expresamente como tales, por las cartas y tratados internacionales y supranacionales, los cuales aun ofreciendo un marco suficientemente laxo para dar cabida en, términos generales, a las nuevas generaciones de derechos, sin embargo, no fueron diseñados para hacer frente a los desafíos de la neurotecnología y a su impacto sobre la esfera de los derechos de las personas y, en concreto, sobre los neuroderechos.

La norma pionera que introduce una referencia a este tipo de tecnologías la encontramos en Chile y no se trata de cualquier norma sino, nada más y nada menos, que de su Constitución. Tras la reforma realizada sobre su texto, por la Ley 21823/2021, de 25 de octubre que modifica la Carta Fundamental para establecer el desarrollo científico y tecnológico al servicio de las personas, introduce un inciso en el párrafo final del art. 19.1, con el siguiente tenor: “el desarrollo científico y tecnológico estará al servicio de las personas y se llevará a cabo con respeto a la vida y a la integridad física y psíquica. La ley regulará los requisitos, condiciones y restricciones para su utilización en las personas, debiendo resguardar especialmente la actividad cerebral, así como la información proveniente de ella”. Además, y como resultado de la reforma de la Constitución Chilena, el 9 de agosto de 2023, la Corte Suprema de Chile, dictó la primera sentencia en materia de neuroderechos y privacidad cerebral12.

Cabe subrayar que las cuestiones relativas al reconocimiento de los neuroderechos han suscitado un inusitado interés en América Latina, confirmando su liderazgo y el carácter pionero de las diferentes iniciativas que se están emprendiendo en esta región del mundo. Prueba de ello son, entre otras, el Proyecto de Declaración con recomendaciones sobre la necesidad de introducción de los neuroderechos en las legislaciones de los Estados representados por los Parlamentos miembros del Parlamento Latinoamericano y Caribeño y la Ley modelo de neuroderechos para América Latina y el Caribe.

En el primero de los documentos, se entiende como imprescindible legislar anticipadamente sobre los llamados neuroderechos como parte integrativa de los derechos humanos de cuarta generación, dentro de los textos constitucionales y en las respectivas legislaciones de los Congresos. Con tal motivo, se recogen veinte recomendaciones, entre las que destacan las destinadas a establecer la necesidad de modificar las correspondientes legislaciones en miras a lograr un desarrollo científico y tecnológico seguro y humanizado, que sirva al bienestar general, sin alterar la indemnidad de la naturaleza humana, y por ende, respetando la vida, la privacidad, la autonomía de la voluntad y la integridad física, psíquica y mental de las personas. Además de que sean “procesos legislativos los que establezcan las obligaciones, derechos, condiciones y restricciones para el uso en las personas de las nuevas tecnologías y neurotecnologías, protocolizando los consentimientos y los límites a la voluntad, protegiendo especialmente la indemnidad y la integridad cerebro-mente”13.

La Ley modelo de neuroderechos para América Latina y el Caribe, por su parte, reconoce que una de las fuentes principales de las que bebe, para su redacción, son los que denomina “ejemplares estudios” realizados por el Senado de la República de Chile, pionero en las iniciativas de legislación sobre neuroderechos14. Se trata de una norma, queridamente amplia, que contiene una propuesta normativa que se remite básicamente al marco filosófico conceptual, sin demasiadas especificidades, puesto que se trata de una ley que ha de servir de modelo, de referente legislativo, para su adopción por parte de los países de la región, para a partir de la misma proceder a la adaptación a las condiciones propias de cada uno de los países, en todos los ámbitos.

También la Organización de los Estados Americanos en marzo de 2023, publicó la Declaración de Principios Interamericanos en Materia de Neurociencias, Neurotecnologías y Derechos Humanos, en la que se reconoce la existencia de desafíos ético-jurídicos vinculados a las garantías de los derechos humanos ante el uso o aplicación imprudente de la neurociencia y neurotecnología, que pueda llegar a provocar alteraciones o intervenciones negativas en la actividad cerebral de las personas, afectando su personalidad e identidad15.

A nivel legislativo estatal, a parte de la norma pionera chilena, otros estados de la región como México, Brasil, Argentina, Colombia o Uruguay están promoviendo proyectos de ley que permitan incluir los neuroderechos.

En este ámbito, Brasil, propone incluir la protección neuronal dentro de la Ley General de Protección de Datos, mediante el Projeto de Lei 522/2022 que modifica la Lei núm. 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais). Define los datos neuronales como cualquier información obtenida directa o indirectamente de la actividad del sistema nervioso central, cuyo acceso se realice mediante interfaces cerebro-computadora o cualquier otra tecnología, invasiva o no invasiva. Los incluye entre los datos considerados sensibles, junto a los datos biométricos. Recoge definiciones de lo que cabe considerar como neurotecnología y de la interfaz cerebro-computadora16 e introduce una sección nueva destinada específicamente al tratamiento de datos neuronales17 .

Méjico cuenta, también, con un proyecto de Decreto por el que se expide la Ley General de neuroderechos y neurotecnologías y se reforman y adicionan diversas disposiciones en materia de neuroderechos y neurotecnologías18. Este texto establece bases y principios generales para garantizar la protección de la dignidad humana y el reconocimiento, respeto, promoción y defensa de los derechos humanos relacionados con el sistema nervioso central y periférico, así como con la actividad cerebral y mental de las personas. También se enfoca en la información derivada de estos sistemas, en consonancia con los avances científicos y tecnológicos, y en las recomendaciones éticas para salvaguardar la privacidad, la autonomía e integridad frente a las evaluaciones, intervenciones y usos de la neurotecnología. La ley se aplicará a todas las actividades que involucren el desarrollo y uso de neurotecnologías, garantizando el respeto a los derechos humanos y la dignidad de las personas, independientemente de si estas actividades son realizadas por entidades públicas o privadas en contextos de todo tipo, incluidos los laborales.

Uruguay, de manera similar a lo que acontece con Brasil, opta por proponer la modificación de su normativa en materia de protección de datos, agregando la actividad cerebral y neuronal, es decir, los neurodatos, a los datos personales sensibles. Para ello se propone la modificación del art. 4.E) de la Ley Nº 18.331, de 11 de agosto de 2008, dedicado al reconocimiento de los datos sensibles19 que, según la redacción propuesta, debería quedar así: “dato sensible: datos personales que revelen origen racial y étnico, referencias políticas, convicciones religiosas o morales, afiliación sindical e informaciones referentes a la salud o a la vida sexual, la actividad cerebral y neuronal de las personas”.

Argentina, cuenta con varias iniciativas de reforma de normas existentes para reflejar las peculiaridades derivadas de la introducción de las neurotecnologías. Entre ellas destaca la modificación del Código Procesal Penal Federal de la Nación, para incluir como medios probatorios las técnicas de imagen cerebral y cualquier otro tipo de neurotecnología que permitan de algún modo inferir la actividad mental, mediante orden judicial20.

Mayor calado está llamada a tener la conocida como Ley de Neuroderechos, que se presentó en el Congreso Argentino en 2025 mediante el Proyecto de Ley de Protección de la Actividad Cerebral, Privacidad Mental y Neurodatos” (expediente 6880-D-2025)21. Se trata de una iniciativa con vocación de cubrir el vacío que generan las neurotecnologías emergentes en relación con la mente humana. Se propone anticipar riesgos antes de que estas tecnologías estén ampliamente comercializados o usados sin una regulación clara y ad hoc.

Destaca de esta norma la singularidad de algunas de sus previsiones, entre otras: incorpora una serie de principios rectores adaptados a riesgos tecnológicos, para orientar tanto acciones estatales como privadas(la primacía de la persona sobre el avance tecnológico; transparencia, trazabilidad y proporcionalidad en el uso de neurotecnologías; protección de la seguridad de los neurodatos y no discriminación “neurocognitiva” o algorítmica); introduce la evaluación de impacto neurotecnológico, orientada a identificar y mitigar riesgos para la privacidad mental y la protección de los neurodatos; reconoce el derecho de toda persona a “espacios cognitivos privados”, es decir, áreas mentales libres de monitoreo, registro o inferencia tecnológica sin consentimiento destinadas a tutelar a las personas frente a prácticas de neurotecnologías intrusivas.
En definitiva, estamos ante una norma moderna, que anticipa escenarios, con una vocación determinada y firme de garantizar el equilibrio entre la innovación tecnológica y los derechos fundamentales.

Colombia, por su parte, propone el proyecto de ley 395/2025 del Senado de Colombia, oficialmente titulado “Por la cual se regulan principios en materia de neurociencias, neurotecnologías, derechos humanos y se dictan otras disposiciones”, cuyo propósito es crear un marco ético y legal para el desarrollo, uso y gobernanza de las neurociencias y neurotecnologías.

En cualquier caso, en el contexto mundial, las iniciativas legislativas que hemos visitado, siguen constituyendo casos minoritarios ya que, en la mayoría de los contextos nacionales, supranacionales e internacionales, aun habiéndose introducido el debate, todavía no encontramos. Una inclusión normativa.

Un ejemplo de lo anterior podría ser el caso del estado español puesto que para encontrar una referencia expresa a los neuroderechos, debemos asomarnos al texto de la Carta de Derechos Digitales, un texto pionero en su género.

 A pesar de que la Carta se sitúa en el extrarradio de lo normativo, para situarse en el ámbito de lo declarativo, al tratarse de soft law, es significativo que se dedique un título completo, el XXVI, a los derechos digitales en el empleo de las neurotecnologías.

En el texto de la Carta se prevé que las condiciones, límites y garantías de implantación y empleo en las personas de las neurotecnologías podrán ser reguladas por la ley, con la finalidad de garantizar el control de cada persona sobre su propia identidad; la autodeterminación individual, soberanía y libertad en la toma de decisiones; asegurar la confidencialidad y seguridad de los datos obtenidos o relativos a sus procesos cerebrales y el pleno dominio y disposición sobre los mismos; regular el uso de interfaces persona-máquina susceptibles de afectar a la integridad física o psíquica, asegurar que las decisiones y procesos basados en neurotecnologías no sean condicionadas por el suministro de datos, programas o informaciones incompletos, no deseados, desconocidos o sesgados. Para acabar, garantizando la dignidad de la persona, la igualdad y la no discriminación, y establecer que, de acuerdo en su caso con los tratados y convenios internacionales, la ley podrá regular aquellos supuestos y condiciones de empleo de las neurotecnologías que, más allá de su aplicación terapéutica, pretendan el aumento cognitivo o la estimulación o potenciación de las capacidades de las personas.

El objetivo de la Carta de Derechos Digitales, según lo declarado en su propio texto, en el apartado de consideraciones previas, es reconocer los retos de aplicación e interpretación que la adaptación de los derechos al entorno digital plantea, así como sugerir principios y políticas referidas a ellos en el citado contexto. Amén de proponer un marco de referencia para la acción de los poderes públicos el entorno digital, aprovechando y desarrollando todas sus potencialidades y oportunidades y conjurando sus riesgos. Así como, «contribuir a los procesos de reflexión que se están produciendo a nivel europeo y, con ello, liderar un proceso imprescindible a nivel global para garantizar una digitalización humanista, que ponga a las personas en el centro». Podemos coincidir con lo declarado porque parece que, como mínimo, el texto de la Carta está sirviendo para adelantarse a los retos de adaptación de los derechos al entorno digital, contribuyendo a los procesos de reflexión, en nuestro caso, también en cuanto a los neuroderechos en el entorno digital.

Es importante subrayar que la tutela de los derechos de las personas frente al empleo de las neurotecnologías no se sitúa en la nada, sino que lo hace en el ámbito del Derecho de la Unión Europea y de los ordenamientos jurídicos y en el marco, más amplio, del debate en la comunidad internacional, sobre el empleo de las neurotecnologías y la frontera del respeto a los derechos humanos.

Volviendo al contexto internacional, diversos organismos como OCDE y UNESCO promueven la supervisión ética y regulatoria en neurotecnologías a nivel global, para armonizar derechos y tecnología, que aseguren transparencia y protección en usos no clínicos y laborales. Desde la OCDE que aprueba en 2019 la «Recomendación sobre innovación responsable en neurotecnología», desde la perspectiva de las aplicaciones de la neurotecnología a la salud, a la UNESCO o el Consejo de Derechos Humanos de la ONU.

En el seno de la UNESCO, se están conduciendo estudios que remarcan que el crecimiento de la neurotecnología y su intersección con la Inteligencia Artificial requiere una supervisión ética para proteger los derechos humanos. En el año 2021, el Comité Internacional de Bioética (CIB) emite el Informe sobre cuestiones éticas de la neurotecnología, en el que se introduce una panoplia de cuestiones éticas derivadas de la neurotecnología, que pueden poner en peligro los derechos humanos y las libertades fundamentales22. Basándose en el anterior informe, se realiza un estudio preliminar sobre la ética de la neurotecnología, que incluye una recomendación que analiza los aspectos técnicos y jurídicos relativos a la conveniencia de disponer de un instrumento normativo sobre aquella. Este estudio coincide con las conclusiones del informe del CIB, que propone que la UNESCO puede abordar estas cuestiones, entre otras formas, mediante un instrumento normativo23. También en sede del Consejo de Derechos Humanos (ONU) se está impulsando la realización de informes que aborden las distintas afecciones que la implantación de las neurotecnologías proyecta sobre la esfera de los derechos humanos24.

De manera resumida, el enfoque de la UNESCO es un enfoque humanista que considera imprescindible estimular el desarrollo de la inteligencia artificial (IA) compatibilizándola con una utilización que proteja los derechos humanos y proporcione a todas las personas las competencias necesarias para una colaboración eficaz entre el ser humano y la máquina en la vida, el aprendizaje y el trabajo, y para el desarrollo sostenible, garantizando además que el desarrollo de la inteligencia artificial “debe estar controlado por el ser humano y centrado en las personas; que la implantación de la inteligencia artificial debe estar al servicio de las personas para mejorar las capacidades humanas; que la inteligencia artificial debe concebirse de manera ética, no discriminatoria, equitativa, transparente y verificable; y que el impacto de la inteligencia artificial en las personas y la sociedad debe ser objeto de seguimiento y evaluación a lo largo de las cadenas de valor”25.

En el marco de las instituciones de la Unión Europea se ha abierto un interesante debate que está dando como fruto documentos y declaraciones conjuntas, como la Declaración de León sobre la Neurotecnología Europea: un enfoque centrado en lo humano y orientado a los derechos.

El leitmotiv de la reflexión impulsada se situaría en la intersección entre neurotecnologías y derechos humanos y sería garantizar el desarrollo económico y científico de las neurotecnologías, reforzando la competitividad de la UE en este campo, con un enfoque de derechos humanos.

Por ello, los Estados miembros firmantes de esta declaración reclaman políticas que incluyen reivindicaciones de corte económico, pero también otras, como el fomento de la cooperación entre los sectores público y privado para el desarrollo de neurotecnologías orientadas a los derechos; o que la Comisión Europea, en estrecha colaboración con el Centro Europeo para la Transparencia Algorítmica, facilite debates especializados de expertos de alto nivel para evaluar el grado en que los marcos normativos y políticos existentes, incluidas las propuestas legislativas que se adoptarán próximamente, salvaguardan los derechos individuales y colectivos en el contexto de las neurotecnologías; que se cree un ecosistema fiable, transparente y responsable para que los ciudadanos de la UE utilicen la neurotecnología; o que se estudie la necesidad de crear normas para las neurotecnologías, incluidas normas de ciberseguridad centradas en la defensa de los derechos humanos.

Más allá del Derecho primario de la Unión, es importante señalar que, con independencia del reconocimiento normativo explícito o no del considerado nuevo haz de derechos, «los neuroderechos», existe una arquitectura jurídica no diseñada expresamente para dar cobertura a las personas frente a los riesgos derivados de las neurotecnologías, pero que tendría la virtualidad de proporcionar una primera tutela a la esfera de los derechos amenazados. La cuestión sería determinar si dicha tutela resulta suficiente o sería precisa una implementación adicional.

El Reglamento (UE) 2016/679, de 27 de abril de 2016, General de Protección de Datos (RGPD) o el Reglamento (UE) 2024/1689, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y se modifican determinados actos legislativos de la Unión, el conocido comúnmente como Reglamento de Inteligencia Artificial (RIA) se sitúan en este rango de normas, normas que sin referirse o refiriéndose periféricamente a los neuroderechos, aportan un potente sistema de garantías. Se trata de dos importantes normas entre las que se producen interacciones, cuando resulte necesario, de manera que no serán extrañas en la norma más próxima en el tiempo, el RIA, las referencias y remisiones a la anterior, el RGPD, demostrando la sintonía y coherencia entre ambas normas.

La utilización de neurotecnologías recae en el ámbito de aplicación del RGPD, puesto que la materia prima de estas tecnologías son los neurodatos, entendidos como la información obtenida de la actividad de las neuronas que contienen una representación de la actividad cerebral. Se refiere a aquella información obtenida, directa o indirectamente, a través de los patrones de actividades de las neuronas, cuyo acceso está dado por neurotecnología avanzada, incluyendo sistemas de registro cerebrales tanto invasivos como no invasivos. Estos datos contienen una representación de la actividad psíquica, tanto consciente como subconsciente, y que corresponden al más íntimo aspecto de la privacidad humana26.

Deberán, por tanto, respetarse los principios establecidos en él, en cuanto al tratamiento de datos personales, es decir, el principio de licitud, lealtad y transparencia; el principio de limitación de la finalidad; el principio de minimización de datos; el principio de exactitud; el principio de limitación del plazo de conservación; y el principio de integridad y confidencialidad (artículo 5 RGPD). También serían de aplicación los derechos de acceso, rectificación, supresión u oposición al tratamiento de datos.

La protección central que proporciona el RGPD gravita sobre la prescripción de la prohibición general sobre las decisiones basadas, únicamente, en un tratamiento automatizado de los datos de carácter personal, incluida la elaboración de perfiles, que produzca efectos jurídicos en la persona o le afecte significativamente de modo similar (art. 22 RGPD) y sobre el derecho a impugnar la decisión (art. 22.3 RGPD), permitiéndole así contrarrestar los efectos perniciosos que sobre su persona o vida profesional pueda tener una decisión fundada, exclusivamente, en una valoración de su persona, producto de una formulación informática.

Con estas previsiones se establece a favor de los interesados el derecho de no verse sometidos a una decisión con efectos jurídicos sobre ellos o que les afecte de manera significativa, que esté basada únicamente en un tratamiento automatizado de datos, destinado a evaluar determinados aspectos de su personalidad, tales como su rendimiento laboral, fiabilidad, conducta u otros.

La contundencia de dicha prohibición, sin embargo, se diluye en el ámbito de las relaciones laborales, puesto que el propio art. 22.2.a) RGPD admite las decisiones automatizadas, que pueden ser transcendentales en la fase de selección y contratación, pero también durante toda la vigencia del contrato, al excluir expresamente de aquella la decisión automatizada necesaria para la celebración o la ejecución de un contrato. No obstante, y en todo caso, el procedimiento de gestión empresarial que prevea la adopción de decisiones algorítmicas debe articular mecanismos para garantizar la intervención humana, si la persona afectada lo solicita.

Verdaderos pilares del sistema de la protección construido por el legislador europeo son la transparencia y el derecho de información de los trabajadores afectados sobre los sistemas de gestión algorítmica, que se utilicen para el control y seguimiento de la prestación laboral, así como para la adopción de decisiones que afecten a sus condiciones de trabajo. El RGPD en el despliegue de la obligación de informar al trabajador, establece que la información debe ser suficiente, entendible y transparente (arts. 12-14 RGPDD).

Es de suma importancia la determinación de qué datos deben quedar al margen de la gestión algorítmica. Los datos que puedan revelar emociones o estados de ánimo o los que se refieren a conversaciones privadas de las personas trabajadoras nunca deberían ser usados por las empresas, además de las categorías especiales de datos incluidos en el art. 9 RGPD. Los neurodatos proporcionan información altamente sensible y permiten revelar aspectos de la identidad y la personalidad de los individuos, como la orientación sexual, los rasgos de personalidad y el desempeño cognitivo, así como estados mentales como intenciones, creencias y emociones. Debido a su carácter biométrico, el interés comercial en los datos obtenidos mediante dispositivos de neurotecnología médicos y no médicos crecerá exponencialmente. Con el amplio despliegue de sistemas de interfaz entre el cerebro y la computadora, que requieren reunir, procesar y almacenar cantidades masivas de información personal, el riesgo de un uso indebido de los datos, su reorientación, prácticas predatorias y piratería será considerable.

El RIA, por su parte, introduce una definición de datos biométricos, en la que tendría cabida los neurodatos, para ella merecerían aquella consideración «los datos personales resultantes de un tratamiento técnico específico relativo a las características físicas, fisiológicas o de comportamiento de una persona física».

Con carácter previo, es exigible al responsable del tratamiento que: —utilice procedimientos matemáticos o estadísticos adecuados para la elaboración de perfiles—; aplique medidas técnicas y organizativas apropiadas para garantizar que se corrijan los factores que introduzcan inexactitudes en los datos personales y se reduzca al máximo el riesgo de error; —que se aseguren los datos personales de forma que se tengan en cuenta los posibles riesgos para los intereses y derechos del interesado—; y que se impidan, entre otras cosas, efectos discriminatorios por motivos de raza u origen étnico, opiniones políticas, religión, creencias, afiliación sindical, condición genética o estado de salud, orientación sexual (art. 9 RGPD). Se requiere, además, armar un régimen adecuado de rendición de cuentas en el que las personas que representen a la empresa revisen y expliquen dichas medidas. Por tanto, deben existir procedimientos adecuados para que sea factible discutirlas e impugnarlas. Por lo tanto, es importante que con carácter previo se establezcan mecanismos precisos y claros para la revisión de esas decisiones, exigiéndose a tal fin la existencia de recursos personales suficientes.

Por su parte la RIA, es otra norma de gran relevancia en la utilización de las neurotecnologías. El marco reglamentario que propone el RIA tiene como objetivo garantizar que los sistemas de IA introducidos y usados en el mercado de la UE sean seguros y respeten la legislación vigente en materia de derechos fundamentales y valores de la Unión. Prohíbe determinadas prácticas particularmente perjudiciales de IA por ir en contra de los valores de la Unión y propone restricciones y salvaguardas específicas en relación con determinados usos de los sistemas de identificación biométrica remota con fines de aplicación de la ley. Se establece una metodología de gestión de riesgos para definir aquellos sistemas de IA que plantean un «alto riesgo» para la salud y la seguridad o los derechos fundamentales de las personas. Dichos sistemas de IA tendrán que cumplir una serie de requisitos horizontales obligatorios, que garanticen su fiabilidad y ser sometidos a procedimientos de evaluación de la conformidad, antes de poder introducirse en el mercado europeo.

En cuanto a las relaciones laborales, el RIA representa un avance significativo hacia la regulación de la inteligencia artificial en el ámbito laboral. Siendo una norma de aplicación general, para todos los sectores, incluye, expresamente, en su ámbito de aplicación, al laboral.

Con la prioridad declarada de priorizar la protección de los derechos fundamentales, el reglamento clasifica las aplicaciones de IA en función de su nivel de riesgo: prohibido, alto, limitado y mínimo. Esta clasificación establece diferentes requisitos y obligaciones para los desarrolladores y usuarios de IA, incluyendo la transparencia, la rendición de cuentas y la no discriminación.

Las aplicaciones de IA prohibidas con trascendencia para el ámbito laboral son las utilizadas para inferir las emociones de una persona física en los lugares de trabajo y los sistemas de categorización biométrica que clasifiquen individualmente a las personas físicas sobre la base de sus datos biométricos para deducir o inferir, entre otros datos, su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida u orientación sexuales27. La prohibición implica la inaceptabilidad de estas prácticas de IA en cuanto a su introducción en el mercado, a la puesta en servicio para este fin específico y al uso de los propios sistemas de IA.

Para cerrar esta revisión de la arquitectura jurídica de la UE inespecífica pero con capacidad de acoger la nueva realidad de la neurotecnología en el ámbito laboral, cabría realizar una somera mención a la Directiva 2024/2831, de 23 de octubre, relativa a la mejora de las condiciones laborales en las plataformas digitales, norma cuyas previsiones a pesar de estar destinadas a los trabajadores de plataformas, su exportación a otras realidades sería interesante en términos de protección de los derechos de las personas trabajadoras. Y ello por que introduce un sistema para tutelar los derechos de las personas trabajadoras de plataformas, que se articula alrededor de un eje de garantías destinadas a: garantizar la transparencia en sistemas automatizados de supervisión o toma de decisiones (art. 6); garantizar la supervisión humana de los sistemas automatizados (art. 7); garantizar la revisión humana de las decisiones importantes (art. 8); garantizar la seguridad y salud (art. 8) y por último, garantizar los derechos de información y consulta por parte de las plataformas digitales de trabajo de la representación legal de los trabajadores o, en su defecto, de las propias personas trabajadoras (art. 9).

Quien sabe si se llega a aprobar la Directiva sobre gestion algorítmica en el trabajo en su texto se incluirán referencias a los neuroderechos laborales, de momento el texto del Proyecto de Informe del Parlamento Europeo, de 6 de junio de 2025, con recomendaciones destinadas a la Comisión Europea sobre digitalización, IA y gestion algorítmica en el trabajo: configuración del futuro del trabajo, recoge en su artículo 5, entre las prácticas prohibidas a los empresarios y a los compradores de servicios tratar datos personales relativos a los siguientes aspectos, entre otros, el estado emocional o psicológico de los trabajadores por cuenta ajena o por cuenta propia sin asalariados y la neurovigilancia28. Con posterioridad en la Recomendación 5 se indica que la propuesta de Directiva deberá incluir entre el elenco de prácticas prohibidas, “la recogida, el almacenamiento, el seguimiento, la venta o cualquier otro tratamiento de: a)los datos relativos a los estados emocionales, psicológicos o neurológicos de los trabajadores, a su actividad cognitiva o a sus parámetros biométricos”29.

V.         ¿PODEMOS HABLAR DE NEURODERECHOS LABORALES?

Como suele ser habitual, el ámbito del trabajo no escapa de esta tendencia, sino que, por el contrario, participa activamente de las reflexiones que estamos realizando, de manera que las relaciones industriales proporcionan un escenario privilegiado para la anticipación de los retos a los que habrá que hacer frente en otros ámbitos de la vida social. No sería la primera ocasión en la que el ámbito laboral se muestra como el escenario perfecto para la observación y evaluación del impacto de la implantación de tecnologías disruptivas e, incluso, que ha favorecido debates que han proporcionado soluciones imaginativas a las cuestiones planteadas. Baste recordar como en el período de la pandemia Covid las relaciones laborales se convirtieron en un verdadero y gigantesco laboratorio social para la experimentación de la introducción del teletrabajo, sirviendo en segundo plano para evidenciar las zonas de sombras e insuficiencias de los ordenamientos jurídicos frente a aquella.

Se enfrenta el mundo del trabajo al uso combinado de la neurotecnología e IA, tecnologías que analizan la actividad cerebral puede dar lugar a manipulaciones de los trabajadores y discriminaciones, si la información extraída se utiliza para tomar decisiones sobre contratación, promoción o despido. Estaríamos topando, de lleno, con una de las caras más oscuras de la inteligencia artificial que puede contribuir a generar una onda expansiva de las causas de discriminación prohibidas, incrementando adicionalmente la vulnerabilidad de las personas por sus características personales, físicas, psíquicas, de edad, raza, origen nacional, orientación o condición sexual pero también características físicas, psíquicas y, ahora, como una subcategoría de esta última podríamos hablar de una discriminación neurológica.

Existen en el mercado dispositivos de neurotecnología ponibles capaces de supervisar los niveles de motivación, concentración y productividad de los trabajadores. Se promueven como herramientas para supervisar el rendimiento o el nivel de estrés o para ayudar a que quienes trabajan en condiciones extremas o peligrosas permanezcan vigilantes y atentos a los riesgos laborales para su salud e integridad, es decir, se justificaría su utilización por motivos de seguridad y salud laboral. Estaríamos en el ámbito de la neurovigilancia que podría abrir la puerta a usos indebidos y abusivos y llevar a la discriminación o a sancionar a los trabajadores por ideas inferidas. El trabajador quedaría sometido a los efectos y riesgos sobre su esfera de derechos fundamentales de la vigilancia digital que se sumaría a los peligros de las decisiones algorítmicas arbitrarias.

Estaríamos ante técnicas y/o dispositivos de neurovigilancia que permiten la obtención masiva de datos de las personas trabajadoras a partir de la observación de su actividad cerebral, los neurodatos. Los datos neuronales combinados con otros podrían utilizarse para extraer conclusiones muy precisas sobre las personas trabajadoras que afectarían sus vidas profesionales. Se trata de informaciones extremadamente sensibles que, en definitiva, revelan el estado de salud mental y emocional y cuya utilización, con finalidades organizacionales, puede tener consecuencias imprevisibles, a efectos de la situación laboral de las personas afectadas y difícilmente compatibles con la dignidad, integridad, la intimidad, el derecho de protección de datos y los otros derechos fundamentales, protegidos en los textos constitucionales.

 Conviene recordar que la materia prima de la que se nutre la IA son los datos, que a partir de ella se transforman en predicciones, contenidos, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales. Hablar de IA en el ámbito laboral, supone per se hablar del procesamiento de grandes cantidades de datos relativos a las personas y sus conductas. que permite la construcción de perfiles susceptibles de ser tratados con las finalidades más diversas. Información de gran precisión y calidad y que con la incorporación de la técnica de los algoritmos proporciona el conocimiento ordenado de datos personales, que facilita el trazado de perfiles determinados de la persona.

Su utilización puede emboscar injustificadas actitudes que vayan más allá de la verificación de la correcta ejecución de la prestación laboral, ofreciendo conclusiones sobre la personalidad del trabajador que a priori no deberían ser objeto de evaluación a efectos estrictamente laborales. Se conseguirían, así, perfiles completos de las personas trabajadoras susceptibles, por tanto, de ser valorados, favorable o desfavorablemente, a efectos laborales y sobre los que planean los fantasmas de la falta de transparencia y de la discriminación algorítmica. Se alcanzaría, incluso, la previsión de comportamientos futuros y la adopción de decisiones por sistemas expertos, basadas en dichas informaciones. Se podrían avanzar neuroperfiles predictivos, es decir, la elaboración y uso de modelos destinados a anticipar rasgos, conductas o predisposiciones de las personas a partir de neurodatos. Este tipo de prácticas, de permitirse, podrían consolidar una nueva forma de determinismo biológico aplicado a la mente, con altísimo potencial discriminatorio.

La IA permite la adopción de decisiones automatizadas que en el ámbito de la empresa impactan de lleno en el ejercicio de los poderes empresariales, que se abren a la adopción de decisiones algorítmicas basadas en el manejo de big data. Adopción de decisiones empresariales que inciden sobre la selección, permanencia, promoción, evaluación del desempeño y extinción contractual de las personas trabajadoras.

La adopción de estas decisiones puede tener su causa en una fase anterior, en el momento del entrenamiento de los algoritmos con datos que reflejen sesgos, desigualdades, que carezcan de diversidad, pudiendo favorecer a unos grupos de la población sobre otros y generando decisiones injustas que les afectan, produciendo resultados inherentemente sesgados que confinen a determinadas categorías de trabajadores al ostracismo laboral y al descarte para determinados puestos o desempeños. Se generarían así una especie de guetos laborales en los que las personas descartadas deberían enfrentar barreras adicionales para acceder a las oportunidades que el mercado laboral ofrece.

Estos procesos de adopción de decisiones algorítmicas pueden ser profundamente opacos e impedir que las personas trabajadoras puedan alcanzar a entender las razones de las decisiones que les afectan. Esta falta de transparencia puede dificultar la identificación de sesgos y la rendición de cuentas en el uso de estas tecnologías.

Las empresas pueden y deben adoptar estrategias y actuaciones destinadas a evitar la discriminación algorítmica30. Es, por ello, esencial que las empresas implementen prácticas justas y equitativas, evitando sesgos basados en datos neurocognitivos. Es en este contexto en el que hay que situar la conveniencia de conducir una discusión fructífera sobre el reconocimiento de los neuroderechos laborales, entre los que se encuentran, entre otros, el derecho a la privacidad mental, que garantiza que los trabajadores tengan control sobre sus pensamientos y procesos mentales, evitando la lectura o manipulación no autorizada de datos cerebrales; el derecho a la integridad cognitiva, que les protege frente a intervenciones que puedan alterar su capacidad de pensamiento, decisión y comportamiento sin su consentimiento; o el derecho a la desconexión cognitiva que permite a los trabajadores desconectarse de las tecnologías que pueden influir en su actividad cerebral fuera del horario laboral.

Cobraría todo su valor un debate que verse sobre los neuroderechos laborales, entendidos como derechos específicos que protegen la integridad, la privacidad y la autonomía de las personas trabajadoras, en el contexto laboral, en relación con el uso de tecnologías que permiten la interferencia, lectura, recopilación y manipulación de su actividad cerebral.

En definitiva, parece evidente que queda mucho por explorar y, sobre todo, por desarrollar en términos del establecimiento de un marco ético y legal para los neuroderechos laborales, que venga impulsado por políticas que no solo sean fruto del esfuerzo gubernamental, sino que sean fruto de la colaboración de los agentes sociales y los neurocientíficos y neurotecnólogos. Se trataría de procurar evitar la tentación de caer en debates huecos, repletos de palabrería con escasa utilidad para potenciar debates rigurosos que contribuyan a garantizar unas reglas del juego justas y respetuosas con los derechos fundamentales, también en un ámbito como el de las relaciones laborales.

El gran reto es proteger y garantizar los derechos fundamentales de los trabajadores frente a los controles y manipulación cognitivas, en un contexto público-privado de aceleración de la innovación, transformación digital, de fomento de la economía de datos y de generalización de aplicación de la inteligencia artificial. Y todo ellos desde una visión holística de la sociedad y la economía y con una perspectiva inclusiva, ética y garante de los derechos humanos.

VI.         CONCLUSIONES

-        La expansión de la utilización de la neurotecnología omnipresente conlleva riesgos para la privacidad mental al permitir el acceso a emociones y pensamientos lo que puede implicar la vulneración de la privacidad y facilitar la manipulación o discriminación neurológicas.

-        Se trata de tecnologías que facilitan el acceso a la identidad más profunda del individuo, proporcionando información sobre la conciencia y el pensamiento individual de cada persona. Posibilidad de registrar, analizar y manipular la actividad cerebral y los datos derivados sin, a priori, disponer de un marco jurídico que proscriba que el mismo pueda realizarse por personas sin la formación requerida o bajo la supervisión adecuada.

-        Las implicaciones de tipo ético, moral, neuropsicológicas y sociales que pueden derivarse del acceso por agentes externos a los datos cerebrales individuales son de tal dimensión que obligan a la reivindicación de un marco que proteja la seguridad y privacidad de los datos neuropsicológicos y que proporcione, en definitiva, una tutela eficaz a la integridad y la autonomía de las personas frente a las nuevas amenazas.

-        Se introducen nuevos desafíos éticos y regulatorios, que requieren la configuración de marcos para proteger la privacidad y la dignidad humanas. Es necesario establecer marcos regulatorios que limiten el uso intrusivo de estas tecnologías y garanticen la protección de la esfera cognitiva.

-        El reconocimiento de los neuroderechos serviría para proteger la privacidad mental y la autonomía individual frente a abusos tecnológicos que permitan el control cognitivo.

-        Para abordar los desafíos planteados, es esencial que el derecho del trabajo evolucione en paralelo con estos cambios tecnológicos. Serán necesarias políticas proactivas que fomenten la adaptación de los trabajadores, la transparencia en la toma de decisiones algorítmicas y la protección de los derechos de los trabajadores. Para tamaño esfuerzo se require una participación multisectorial de comunidad internacional gobiernos, agentes sociales pero también de la comunidad científica, a través del asesoramiento de los neurocientíficos y neurotecnólogos que deben colaborar para crear políticas equilibradas y justas.


[1]         Vid. FERNÁNDEZ, A., SRIRAMAN, N., GUREVITZ, B., QUILLER, O., Pervasive Neurotechnology: a groundbreaking analysis of 10,000+ Patent Filings Transforming Medicine, Health, Entertainment and Business, SharpBrains, San Francisco, 2015.

[2]         BELTRÁN DE HEREDIA RUIZ, I., Algoritmos, psicometría y derechos del yo inconsciente de la persona en el ámbito socio-laboral, Revista Derecho Social y Empresa, n. 18, 2023, p. 19.

[3]         RAMOS QUINTANA, M. I., MERCADER UGUINA, J., Los neuroderechos laborales: la neurotecnología llega al lugar de trabajo, Trabajo y Derecho, núm. 117, 2024, p.4.

[4]         IENCA, M., ANDORNO, R., Towards new human rights in the age of neuroscience and neurotechnology, Life Sciences, Society and Policy, 2017, 13(5), p. 1.

[5]         IENCA, M., ANDORNO, R., Towards new human rights in the age…, op. cit., p. 2.

[6]         YUSTE, R., GOERING, S., ARCAS, B. et al. Four ethical priorities for neurotechnologies and AI. Nature 551, 159-163 (2017). https://doi.org/10.1038/551159a

[7]         Algunos de estos trabajos pueden ser consultados en la web de la Neurorights Foundation (https://neurorightsfoundation.org/), fundación que tiene por objeto la protección de los derechos humanos frente al posible mal uso o abuso de la neurotecnología, impulsando la creación de un nuevo marco de protección.

[8]         Vid. MASCITTI, M., El rango constitucional de los neuroderechos como una exigencia de justicia. Revista Mexicana de Derecho Constitucional, n. 46, 2022, p. 159.

[9]         CARDONA RUBERT, M.B., La Inteligencia Artificial y su impacto en el futuro del Derecho del Trabajo. Trabajo y derecho: nueva revista de actualidad y relaciones laborales, n. 131, 2025, p. 5.

[10]         YUSTE, R., GENSER, J., Y HERRMANN, S. It’s Time for Neuro-Rights: New Human Rights for the Age of Neurotechnology. Horizons, 2017, n. 18, pp. 154-164.

[11]         Ley modelo de neuroderechos para América Latina y el Caribe. Preámbulo. Este texto fue aprobado en la XXXVII Asamblea Ordinaria del Parlatino. https://parlatino.org/wp-content/uploads/2017/09/ley-modelo-neuroderechos-7-3-2023.pdf

[12]         https://www.diariojudicial.com/uploads/0000053479-original.pdf

[13]         Parlamento Latinoamericano y Caribeño, Declaración con recomendaciones sobre la necesidad de introducción de los neuro derechos en las legislaciones de los Congresos de este PARLATINO (2022), https://parlatino.org/wp-content/uploads/2017/09/declaracion-neuroderechos.pdf

[14]         Parlamento Latinoamericano y Caribeño, la Ley modelo de neuroderechos para América Latina y el Caribe (2023), https://parlatino.org/wp-content/uploads/2017/09/leym-neuroderechos-7-3-2023.pdf

[15]         OEA. CJI/RES. 281 (CII-O/23) corr.1 Declaración de Principios Interamericanos en Materia de Neurociencias, Neurotecnologías y Derechos Humanos. Marzo, 2023, Organización de los Estados Americanos. Disponible en https://www.oas.org/es/sla/cji/docs/CJI-RES_281_CII-O-23_corr1_ESP.pdf

[16]         Art. 2 que modifica el artículo 5.º de la Ley N.º 13.709.

[17]         Art. 3.º amplia el Capítulo II de la Ley N.º 13.709 con la Sección II-A: Tratamiento de Datos Neuronales.

[18]         Comisión Permanente del H. Congreso de la Unión Lxv Legislatura, Iniciativa con proyecto de decreto por el que se expide la ley general de neuroderechos y neurotecnologías y se reforman y adicionan diversas disposiciones en materia de neuroderechos y neurotecnologías, 2024.

[19]         https://documentos.diputados.gub.uy/docs/L49/Repartid/R1152.pdf

[20]         Proyecto de Ley. Código Procesal Penal Federal de la Nación. Ejecución de la Pena Privativa de la Libertad - ley 24660. Argentina. https://www4.hcdn.gob.ar/dependencias/dsecretaria/Periodo2022/PDF2022/TP2022/0339-D-2022.pdf

[21]         https://rest.hcdn.gob.ar/web/tramites-parlamentarios/render/adjunto/69317c7d2278b.pdf

[22]         Informe del Comité Internacional de Bioética (CIB) sobre cuestiones éticas de la neurotecnología, diciembre 2021, https://unesdoc.unesco.org/ark:/48223/pf0000383559

[23]         UNESCO, Estudio preliminar sobre los aspectos técnicos y jurídicos relativos a la conveniencia de disponer de un instrumento normativo sobre la ética de la neurotecnología, 6 de abril de 2023, 216ª Reunión del Consejo Ejecutivo.

[24]         El 6 de octubre de 2022 el Consejo de Derechos Humanos, en su resolución 51/3, solicitó al Comité Asesor que preparase un estudio sobre los efectos, las oportunidades y los retos de la neurotecnología en relación con la promoción y la protección de todos los derechos humanos. A partir de este hito, se han sucedido los informes sobre esta cuestión, entre otros: «Efectos, oportunidades y retos de la neurotecnología en relación con la promoción y la protección de todos los derechos humanos», de 8 de agosto de 2024;

        Fundamentos y principios para la regulación de neurotecnologías y el tratamiento de neurodatos desde el derecho a la privacidad (16 de enero de 2025); más recientemente, y complementario al anterior, de 31 de julio de 2025, «Elementos para crear una ley modelo sobre neurotecnologías y el tratamiento de neurodatos desde el derecho a la privacidad».

[25]         Art. 17.3, destinado a establecer las competencias de la figura prevista de implementación por los países que adopten el modelo recogido en la Ley Modelo de neuroderechos para América Latina y el Caribe.

[26]         Definición obtenida del Glosario incluido en la Ley Modelo de neuroderechos para América Latina y el Caribe.

[27]         Art. 5.1, apartados f) y g).

[28]         Comisión de Empleo y Asuntos Sociales, Parlamento Europeo, PROYECTO DE INFORME con recomendaciones destinadas a la Comisión sobre digitalización, inteligencia artificial y gestión algorítmica en el lugar de trabajo: configuración del futuro del trabajo (2025/2080(INL)) https://www.europarl.europa.eu/doceo/document/EMPL-PR-774283_ES.pdf

[29]         Resolución del Parlamento Europeo, de 17 de diciembre de 2025 (P10_TA(2025)0337), con recomendaciones destinadas a la Comisión sobre digitalización, inteligencia artificial y gestión algorítmica en el lugar de trabajo: configuración del futuro del trabajo (2025/2080(INL)) https://irshare.eu/wp-content/uploads/2025/12/TA-10-2025-0337_ES.pdf

[30]         CARDONA RUBERT, M.B., La Inteligencia Artificial y su impacto…, op.cit, p. 5.