La necesidad del ‘compliance’ en la inteligencia artificial

13 de abril de 2021- El uso de sistemas inteligentes en el sector privado y, en especial, en el público, está sujeto a importantes limitaciones legales

Con carácter general tenemos dos importantes limitaciones constitucionales: el artículo 14 de la Constitución, que prohíbe toda discriminación, y el artículo 18 del mismo texto legal, en lo relativo a la protección de datos personales.

Por lo que se refiere a la prohibición de discriminación, en Europa ya se han dictado importantes sentencias que han anulado decisiones sustentadas en algoritmos que inducían a sesgos de alcance discriminatorio, como la del Tribunal de Distrito de La Haya de 5 de febrero de 2020, que, en el ámbito público, anuló una elaboración de perfiles para la lucha contra el fraude; o la del Tribunal Ordinario de Bolonia de 31 de diciembre de 2020, que anuló el algoritmo utilizado por Deliveroo para asignar encargos a los riders. Estos mismos pronunciamientos judiciales pueden producirse en España, con el consiguiente riesgo reputacional y de pérdida de las inversiones económicas (considerables) aplicadas a su desarrollo e implementación.

Por su parte, en materia de protección de datos, la Agencia Española de Protección de Datos (AEPD) ya ha emitido dos relevantes documentos en los que determina cómo debe preservarse este derecho tanto en la “Adecuación al RGPD de tratamientos que incorporen inteligencia artificial” (febrero de 2020), como en cuanto a los “Requisitos para auditorías de tratamientos que incluyan inteligencia artificial” (febrero de 2021). El incumplimiento de estos parámetros podría conducir a la presentación de denuncias por los afectados y a la imposición de sanciones.

En el sector público se producen otros condicionamientos adicionales, como la motivación de los actos administrativos. Es necesario que el algoritmo utilizado para la toma de decisiones por la Administración sea transparente y explicable, pues de otro modo no podría verificarse la objetividad de la decisión y controlarse su ajuste a los derechos de los ciudadanos. En este sentido, ya se han pronunciado dos sentencias del Tribunal Supremo (Consiglio di Stato) italiano, de 8 de abril y 19 de diciembre de 2019, anulando decisiones sustentadas en algoritmos que no resultaban explicables. En España todavía no se han pronunciado al respecto, pero no me cabe duda de que nuestros tribunales llegarían a la misma conclusión (anulatoria de actos administrativos e imposibilitadora del empleo de la herramienta en lo sucesivo) si se impugnan decisiones basadas en algoritmos que no sean transparentes e inteligibles (por ejemplo, los utilizados en deep learning y, en especial, los denominados algoritmos de caja negra).

En definitiva, antes de proceder al desarrollo e implementación de soluciones de inteligencia artificial, tanto el sector público como el privado deben prever un compliance de cumplimiento de las exigencias jurídicas al empleo de esta tecnología que ya derivan del derecho vigente en la actualidad y que comienzan a ser imprescindibles para las empresas.