La Inteligencia Artificial (IA) como tecnología aplicada para desarrollar procesos inteligentes automatizados a través de computación digital, está alcanzando en estos momentos un ritmo de desarrollo cada vez avanzado. Los ciudadanos, siendo en su mayoría usuarios voluntarios o involuntarios de la misma, apenas son conscientes todavía de la trascendencia y repercusiones de esta realidad. De aquí el interés y la necesidad de su regulación, tanto desde las instituciones globales supranacionales (ONU, OCDE, EU, etc.), como a nivel estatal.

Si bien el inicio de esta tecnología es anterior a la segunda Guerra Mundial, es a partir de 1956 cuando verdaderamente la IA inicia su despegue en base a las cada vez mayores capacidades de proceso de los ordenadores. Pero sobre todo desde 2005, gracias al desarrollo global de internet y las capacidades de tratamiento, computación algorítmica y almacenamiento de datos en el cloud, los avances se están produciendo ya de manera exponencial.

No hay una definición completa de la IA, pero citando a Kaplan y Haenlein la inteligencia artificial puede explicarse como «la capacidad de un sistema para interpretar correctamente datos externos, para aprender de dichos datos y emplear esos conocimientos para lograr tareas y metas concretas a través de la adaptación flexible».

Conforme las máquinas se vuelven cada vez más capaces el desarrollo de la IA alcanza niveles cada vez más altos que desarrollan “razonamiento complejo”. Es el caso por ejemplo de la conducción autónoma de vehículos, naves o aeronaves, sistemas de salud y robots de cirugía avanzada, la capacidad de dialogar y responder a preguntas complejas de un ser humano, desencadenar decisiones en el ámbito financiero o de riesgos, todo ello gracias a modelos de aprendizaje automático, de forma que hoy los ordenadores son capaces de aprender sin estar directamente programados para ello. No se trata ya solamente de algoritmos que analizan, predicen o prescriben comportamientos, sino incluso que deciden e incluso ejecutan tales decisiones.

Las implicaciones y el impacto de la IA afectan o afectarán en un futuro no muy lejano a todos y cada uno de los aspectos de la sociedad humana y de la cadena de valor de los negocios. No hay ningún área, actividad, industria, o país, que vaya a quedar fuera de su alcance. Es solo cuestión de tiempo, puesto que además de imitar el razonamiento humano, la IA permite multiplicar la velocidad de los procesos y toma de decisiones asociadas permitiendo nuevas formas de producir y prestar servicios basados en economías de escala y procesos cada vez más eficientes. Esta realidad plantea a las instituciones y los estados un reto y la necesidad de regular los procesos de IA, en defensa de los derechos y libertades de los ciudadanos, que podrían verse limitados o incluso cercenados, no solo por quienes controlando la tecnología y los algoritmos de la IA, pudieran hacer un uso abusivo o dañino de la misma, sino incluso de forma involuntaria por la  propia dinámica de los sistemas inteligentes.

 

La OCDE desarrolló la primera iniciativa intergubernamental sobre IA llamada «Recomendación sobre Inteligencia Artificial del Consejo de la Organización para la Cooperación y el Desarrollo Económicos»,  el 22 de mayo de 2019 . Su objetivo fundamental fue fomentar la innovación y la seguridad en la IA. Para ello promueve el respeto a los derechos humanos y valores democráticos en los desarrollos tecnológicos con IA. Como se sabe estas recomendaciones no son vinculantes, pero son relevantes en el Derecho Internacional, al orientar a los legisladores nacionales en sus propias normativas. Posteriormente los líderes del G20 adoptaron en la Cumbre de Osaka de junio de 2019, los llamados «Principios sobre Inteligencia Artificial» inspirados en las Recomendaciones de la OCDE.

Haciendo suyos muchos de estos principios, la Unión Europea lleva años trabajando para crear un marco normativo único que balancee adecuadamente los riesgos, beneficios y oportunidades, teniendo en cuenta los derechos fundamentales y las libertades individuales y colectivas de los ciudadanos. El 21 de abril de 2021 la Comisión Europea publicó su Propuesta de Reglamento para el Parlamento Europeo y el Consejo, por el que se establecen normas armonizadas en materia de Inteligencia Artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión. Es probable que la Propuesta de la Comisión Europea sufra más de una enmienda durante su tramitación parlamentaria, que finalmente deberá ser incorporada al marco normativo de cada país.

Los principios de la OCDE para la inteligencia artificial, que se han incorporado a la propuesta de Reglamento de la UE, se basan en las recomendaciones del Grupo de Trabajo entre los que hay más de 50 representantes gubernamentales, lideres empresariales, miembros destacados de la sociedad civil, académica y científica. Podemos resumirlos en los siguientes:

1. La IA debe beneficiar a las personas y al planeta impulsando el crecimiento inclusivo, el desarrollo sostenible y el bienestar.

2. Los sistemas de IA deben diseñarse respetando el estado de derecho, los derechos humanos, los valores democráticos y la diversidad, y deben incluir los mecanismos apropiados – como por ejemplo, permitir la intervención humana cuando sea necesario- para garantizar una sociedad justa y equitativa.

3. Debe existir una transparencia y divulgación responsable en torno a los sistemas de IA, para garantizar que las personas entiendan sus resultados y puedan desafiarlos.

4. Los sistemas de IA deben funcionar de manera sólida y segura a lo largo de su ciclo de vida y los riesgos potenciales deben evaluarse y gestionarse continuamente.

5. Las organizaciones e individuos que desarrollan, despliegan u operan sistemas de IA deben hacerse responsables de su correcto funcionamiento, en base a los principios anteriormente descritos.

Igualmente la OCDE ha dado las siguientes recomendaciones a los Gobiernos

 

1. Facilitar la inversión pública y privada en investigación y desarrollo, con el objetivo de estimular la innovación en Inteligencia Artificial de manera segura y fiable.

2. Fomentar los ecosistemas de IA accesibles con infraestructura y tecnologías digitales, y mecanismos para compartir datos y conocimientos.

3. Asegurar un marco de políticas que abra el camino para el despliegue de sistemas de IA fiable.

4. Capacitar a las personas con habilidades necesarias para la IA y apoyar a los trabajadores para una transición justa.

5. Cooperar a través de las fronteras y los sectores para avanzar en la administración responsable de IA fiable.

La realidad es que actualmente existen multitud de sistemas e industrias que incorporan IA en sus procesos, y sus efectos son ya reales en la vida de los ciudadanos. Es el caso de sector financiero, Banca y Seguros, Telecomunicaciones, ecommerce, Sanidad, Automoción, marketing y Publicidad, etc., en los que se adoptan ya decisiones y se ejecutan acciones automatizadas que no siempre aseguran debidamente los derechos de los ciudadanos.  Igualmente sucede en el sector público, en el que las administraciones y entes gubernamentales deben diseñar e implementar los sistemas con IA siguiendo las recomendaciones antes citadas,

 

Ante la ausencia de una regulación específica para la IA, el RGPD se ha convertido en la única herramienta más o menos efectiva para asegurar un cierto (aunque limitado) control de los datos y procesos de IA. Efectivamente, El Reglamento General de Protección de Datos (RGPD) establece en su artículo 22 punto 1 que «todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar». En definitiva El RGPD prohíbe –con carácter general– las decisiones individuales basadas únicamente en el tratamiento automatizado de datos personales. No obstante, el RGPD prevé una serie de excepciones. El punto 2 dispone que el punto 1 podrá no será de aplicación cuando la decisión sea necesaria para la celebración o ejecución de un contrato entre el interesado y el responsable del tratamiento; o cuando esté autorizado por el Derecho de la Unión o de los Estados miembros, siempre que se establezcan medidas adecuadas para salvaguardar los derechos, libertades e intereses legítimos del interesado; o cuando el tratamiento de datos se base en el consentimiento explícito del interesado.

Por último hay que indicar que una gran preocupación del grupo de expertos de la OCDE ha sido la seguridad de los sistemas de IA. Los modelos y procesos han de protegerse de usos malintencionados, que puedan alterar los datos y el funcionamiento del sistema, evitando decisiones erróneas, injustas, o bien el hacking o los bloqueos de los sistemas. Por ello es necesario que todos los operadores de IA desarrollen y adopten medidas de seguridad para prevenir y mitigar proactivamente tales riesgos y ciberataques a las máquinas de IA, así como deberán disponer de un plan de contingencia adecuado.

 

Rafael Tripero, socio de Cremades & Calvo-Sotelo

De acuerdo