Devesa 0807

Como afirma el escritor Noah Harari en su ya célebre obra “Sapiens” el círculo vicioso de las ficciones sobre las que se fundamentan todas las jerarquías (estatus, clase social, raza o género) consiste, precisamente, en la tendencia a la auto perpetuación de esas ficciones como conjunto de creencias -sin base científica alguna- de tal manera que terminan por consolidarse en la sociedad por el mero transcurso del tiempo y, sobre todo, por la ausencia de una fuerza opuesta igual o superior para su superación (la Revolución Francesa, el movimiento de derechos civiles o el 8 de Marzo).

Salvando todas las distancias, me permitiría elucubrar aquí el paralelismo posible existente entre este fenómeno que explica las jerarquías en términos de desigualdad (social, de raza o de género) con el “sesgo” con el que los algoritmos de la Inteligencia Artificial producen sus resultados (soluciones) sobre todo en aquellos que pretenden emitir juicios de valor y predecir o prescribir hechos o conductas humanas tal y como sucede cuando se analiza el riesgo de reincidencia y por tanto la peligrosidad de un condenado (sistema Compass, EE.UU.), la selección de un candidato (caso Amazon), la denegación de un seguro médico (caso Sheldon) o Bono social (Caso Español de Civio-Bono eléctrico) o finalmente, la personalidad de un sujeto por el reconocimiento facial de sus expresiones, etc,. Y es por ese singular y grave motivo por el que, a mi juicio, necesitamos tener la supervisión humana de los algoritmos que toman decisiones sobre las personas, sobre todo, en los que la máquina establece meras correlaciones entre datos, en principio, inconexos y respecto de las cuales no se ofrece juicio o argumento conforme a derecho alguno que ampare sus suficiencia en relación con el derecho fundamental a la protección de nuestros datos personales y las decisiones automatizadas que afecten a nuestros derechos y libertades.

Y sin perjuicio de reconocer que la IA se muestra muy robusta en reconocer patrones donde no hay incertidumbre o ambigüedad sensibles por su capacidad de procesamiento superando al humano en margen de acierto con análisis de imágenes (fotografías, radiografías, etc,.) y texto donde hay una causalidad entre lo mostrado y lo obtenido por la máquina, es lo cierto también que este hecho del sesgo trasladado a la máquina por ejemplo en los Algoritmos de reconocimiento facial y antropométrico que heredan los criterios parciales de sus creadores ha provocado fallos relevantes como cuando el sistema de recomendación de imágenes de Google propuso gorilas al mostrarle fotografías de ciudadanos negros o el coche autónomo.

A similares conclusiones llegamos de lecturas de obras como “armas de destrucción matemática”, “Ciberleviatán” o “El enemigo conoce el sistema” de las que se puede afirmar la existencia de algoritmos maliciosos que camuflan asunciones peligrosas -a sabiendas- que perpetúan sesgos persistentes, los que definen su propia realidad y que al igual que el de género, mantendrán la pobreza y la desigualdad empujándonos irremediablemente hacia un mundo peor.

Desde el Instituto AI Now de Nueva York hasta la asociación estadounidense de Abogados ABA, se alza la voz en contra del uso indiscriminado y no supervisado de este tipo de IA. Ahora más que nunca se demuestra que la desinformación debilita la democracia y por eso son necesarios medios que desvelen esas trampas y se promuevan iniciativas para una inminente Ley del Algoritmo y una Constitución Digital que recoja estos derechos junto a los de las normas preexistentes (GDPR, LOPDDG, ePRIVACY) como límites a estas prácticas que tienden a extenderse cada vez más al abrigo de los claros beneficios de estas tecnologías, en otras áreas.

Nos ha costado siglos, con guerras y revueltas incluidas, superar algunas de estas ficciones (raza, color, casta ) y todavía hoy, por desgracia, seguimos manteniendo otras, la de género, como para que, ahora, las máquinas se basen en ellas para seguir perpetuándolas a base de reproducir dichos sesgos de manera exponencial, tal y como lo prueba el caso “Amazon” y su algoritmo en proceso de selección de personal que elegía a hombres frente a mujeres a igualdad de competencias por el mero hecho de la constatación de que la definición de éxito en ese puesto estaba correlacionada con hombres, al no distinguir sexo (la máquina “no cree” nada pero si se le codifica como hecho esa creencia, la asume en su regla de inferencia y cuando reconoce el patrón de una posible solución la concluye como tal conforme con el histórico obtenido de la BBDD histórica de la propia compañía).

 

Juan José Cortés

Of Counsel del Área Compliance y Legaltech de Devesa & Calvo Abogados

Rate this post
← Volver al blog