DERECHOS HUMANOS E INTELIGENCIA ARTIFICIAL.

AutorMeg

HUMAN RIGHTS AND ARTIFICIAL INTELLIGENCE

La insistencia de la doctrina en la necesidad de regular la IA por los riesgos que entraña para los derechos humanos (1) ha contribuido a que, en la actualidad, tengamos en curso de aprobación dos modelos internacionales de regulación, uno en el ámbito de Naciones Unidas y otro en el de la UE. En el primero ha sido la UNESCO la que ha acometido este objetivo con una propuesta de Recomendación que posiblemente sea aprobada en noviembre de 2021 y que recoge exigencias éticas que deberían ser asumidas por las legislaciones internas para asegurar el respeto de los derechos humanos (2). La UE, en cambio, ha planteado directamente una regulación legal de la IA. Si bien en una primera etapa apostó por un marco ético, aboga ahora por la aprobación de normas jurídicas vinculantes complementadas con exigencias éticas. Así se refleja en la propuesta en 2020 de dos Reglamentos (norma vinculante de aplicación directa) del Parlamento Europeo, uno para establecer un marco de principios éticos y obligaciones jurídicas que regularían la IA, y otro para regular la responsabilidad civil por daños. El paso definitivo en este sentido lo ha dado la Comisión Europea en 2021 al proponer la aprobación de un Reglamento más ambicioso que, además de armonizar el derecho europeo, regularía los sistemas de IA con el fin de proteger los derechos humanos, y que tendría la denominación de Ley de Inteligencia Artificial.

  1. Derechos humanos y riesgos reales asociados a la IA

    Desde que comenzara a utilizarse la IA, hemos visto los beneficios que reporta, pero también los riesgos que su uso indiscriminado entraña para los derechos humanos, tolerados como una consecuencia natural, en ocasiones inevitable, a cambio de alcanzar beneficios que ofrece la IA, como agilidad y eficacia en la relación con la Administración Pública, gestión de expedientes, detección de errores en los procedimientos, etc. Sin embargo, se advierten riesgos considerables para los derechos humanos (3).

    Así, en el campo de la salud, la IA permite realizar diagnósticos y previsión de riesgos, prescripción de tratamientos, cirugía robótica, asistencia médica remota, tratamiento de imágenes, mapas sanitarios, control de propagación de enfermedades, etc. Sin embargo, existen riesgos claros en lo que afecta al derecho a la integridad, al tratamiento de datos personales muy sensibles, a la autonomía del paciente, al consentimiento y control humano sobre las decisiones finales de los sistemas, etc. (4)

    En el campo de la seguridad ciudadana, la IA resulta muy útil para el reconocimiento biométrico, registro de actividad, análisis de comportamiento, interceptación y análisis de comunicaciones, búsqueda de personas desaparecidas, etc. Pero, de nuevo se advierte el riesgo del tratamiento abusivo de datos de carácter personal, preocupando en especial la inteligencia anticipativa con fines de vigilancia policial predictiva, excesivamente dependiente de sesgos discriminatorios (5).

    En la administración de justicia, la IA facilita la sistematización y búsqueda de información jurídica útil para jueces, abogados y para la sociedad en general, y permite la predicción a partir de decisiones judiciales ya adoptadas que podrían ser replicadas, pero sin capacidad de argumentar y garantizar una decisión equitativa, justa, precisa y apropiada, lo que la hace susceptible de "inexactitudes, resultados discriminatorios, sesgos implícitos o incorporados" (6). Agilizar el acceso a la justicia no conlleva una sociedad más justa si no se garantiza que las decisiones del sistema sean correctas (7).

    El mayor riesgo en campos como la educación (personalizar contenidos, evaluar conocimientos, control de plagios, tutorización y seguimiento, etc.) o el transporte público (control de carreteras y de velocidad, semaforización inteligente, optimización del transporte público, etc.) deriva del uso que se pueda hacer de los datos personales y la injerencia en la privacidad. Esta misma amenaza se aprecia en la actividad publicitaria con la elaboración de perfiles personales sin transparencia y sin consentimiento de los afectados, lo que, además de atentar contra la privacidad, permite manipular a las personas con ofertas comerciales personalizadas (8). En el sector de recursos humanos y financieros, la IA tiene gran aceptación para la administración de personal, selección de candidatos, etc., en teoría de un modo objetivo y preciso, pero ocultando que los algoritmos suelen incorporar (o crear) sesgos discriminatorios (9).

    Preocupan también los riesgos en el sector informativo, en particular los "problemas relacionados con el acceso a la información, la desinformación, la discriminación, la libertad de expresión, la privacidad, la alfabetización mediática y la cultura en materia de información" (10). La IA no sólo es utilizada para limitar la libertad de expresión, sino también para generar información falsa u ofensiva, para modificar audios e imágenes con gran credibilidad, etc., lo que genera desinformación y repercute negativamente sobre la limpieza del debate público y los procesos democráticos (11).

    Por último, debemos mencionar los riesgos derivados del uso de la IA en actividades privadas, realidad que nos desborda: robótica del hogar, asistentes de búsqueda de información o contenidos, configuración de rutas, entrenamiento deportivo, asistencia médica (incluida la psíquica), etc. Todos ellos se basan en el tratamiento de datos personales con mayor o menor transparencia y el consiguiente riesgo para la privacidad, pero pueden además inducir a conductas nocivas para la integridad personal como la automedicación sin control, la modificación de conductas interpersonales, el aislamiento social, etc., que pueden poner en peligro la propia esencia de la persona, en especial la última generación de asistente emocional, que, al imitar capacidades humanas para generar confianza, es capaz de acceder a sentimientos y emociones en la interactuación (12).

    Así, pues, junto a los beneficios que la IA ha traído consigo para la sociedad, resultan evidentes los riesgos para la dignidad de la persona y los derechos humanos, en especial los derechos a la integridad física, la vida privada, la igualdad, la libertad de expresión y de reunión, la tutela judicial efectiva, etc., riesgos que se agudizan cuando afectan a grupos vulnerables (menores, inmigrantes, personas con discapacidad, edad avanzada, etc.). En la actualidad se intenta minimizar estos riesgos con dos modelos de regulación distintos, uno ético y otro jurídico. Trataremos de aportar un breve análisis de ellos.

  2. Propuesta de la UNESCO: un marco ético

    La UNESCO acordó en julio de 2021 que su Conferencia General debatiera, en su reunión de noviembre, la Recomendación sobre la Ética de la Inteligencia Artificial (13). En caso de aprobación, será el primer texto de carácter universal sobre la IA basado "en el derecho internacional y en un enfoque normativo mundial y centrado en la dignidad humana y los derechos humanos, así como en la igualdad de género, la justicia social y económica, el bienestar físico y mental, la diversidad, la interconexión, la inclusión y la protección del medio ambiente" (14). El modelo por el que opta es el del establecimiento de principios éticos universales que sirvan de base para la regulación legal de la IA en cada Estado. Parece adecuado para, desde unos principios éticos bien definidos, adaptar los deberes a la cambiante realidad de la IA y salvar desventajas de la regulación legal, que, por su sometimiento a requisitos formales para su modificación, adolecería de constantes lagunas y la impunidad de quienes las aprovecharan para hacer un uso abusivo de la IA (15). Este marco constituiría únicamente el primer paso, instando la Recomendación a los Estados a seguirlo para elaborar un marco legal propio que ofrezca seguridad jurídica.

    El texto pone al descubierto la fragilidad del marco ético al referirse a la "diversidad de orientaciones éticas y culturas en todo el mundo" y a "los valores éticos locales y regionales" (16), aunque propone como objetivo "aportar un instrumento normativo aceptado mundialmente" (17). Si bien descarta en principio unas exigencias éticas objetivas, conformándose con otras fruto de la negociación para salvar las diferencias culturales, aclara, sin embargo, que "todos los valores y principios" propuestos "son deseables en sí mismos" (18), aunque precisen ser contextualizados para su correcta aplicación, sin que ninguna disposición de la Recomendación pueda interpretarse como una autorización a realizar actividades que vulneren "los derechos humanos, las libertades fundamentales, la dignidad humana y el respeto del medio ambiente" (19). Desde esta perspectiva, los objetivos de la Recomendación son: a) proporcionar un marco universal de valores, principios y acciones que oriente a los Estados en la formulación de sus leyes y políticas; b) orientar a todos los agentes para asegurar la perspectiva ética en todas las etapas de los sistemas de IA; c) promover el respeto de la dignidad humana y la igualdad de género, salvaguardar los intereses de las generaciones presentes y futuras y proteger los derechos humanos, las libertades fundamentales y el medio ambiente; d) fomentar el diálogo multidisciplinario y plural sobre cuestiones éticas de la IA; y e) promover el acceso equitativo a los avances y beneficios de la IA (20).

    2.1. Valores universales y principios éticos para la IA

    La Recomendación escalona valores, principios y exigencias particulares para el terreno práctico. Los valores vendrían a ser los ideales inspiradores de toda regulación de los sistemas de IA, mientras que los principios constituirían una primera concretización de dichos valores en exigencias éticas universales. El tercer escalón, bajo la rúbrica "Ámbitos de acción política", está formado por otra serie de exigencias éticas más concretas agrupadas en diez ámbitos de actuación entre las que sitúa en...

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR