Categories: Social Biz Solutions

The Algorithmic Justice League

Con el título The Algorithmic Justice League, Joy Buolamwini (graduada del MIT) puso en marcha en 2016 una organización que lucha por la utilización de la tecnología IA de reconocimiento facial de una manera equitativa y responsable.
Gracias a su investigación de la IA de reconocimiento facial Facebook, Amazon o Microsoft entre otras han paralizado su uso masivo en aplicaciones web por no poder ofrecer garantías. La propuesta es clara hay que poner reglas para controlar dónde va y como se utiliza la información a la par que garantiza la igualdad.

La llaman la poeta del código de la investigación en Inteligencia Artificial (AI) que motivada por una experiencia personal de discriminación del algoritmo de reconocimiento facial, Joy contó su historia en una TED featured Talk que ya cuenta con más de 1.2 millones de visualizaciones y ayudó a lanzar the Algorithmic Justice League.

Este es un texto extraido de la web

Únete a la Liga de la Justicia Algorítmica en el movimiento hacia una IA equitativa y responsable.

¿POR QUÉ “EQUITATIVO” Y “RESPONSABLE”?

Hay muchos términos diferentes que se han utilizado para describir un enfoque político de la IA. Queremos tener claro lo que entendemos por equitativo y responsable como algo separado de estos otros enfoques.

LIMITACIONES DE LA IA ÉTICA

La noción de “IA ética” ha sido aprovechada por las grandes empresas tecnológicas -inversores y ejecutivos estratégicamente alineados con el mundo académico y el gobierno- para impulsar los principios voluntarios por encima de la regulación gubernamental. La idea de utilizar la ética no es problemática en sí misma, pero ha dado lugar a una proliferación de “Principios de la IA” con medios limitados para llevar estos principios a la práctica. Un sistema de ética de la IA permite a las empresas rendir cuentas únicamente de las normas que se han fijado para ellas mismas. La pelota está en su tejado de principio a fin. Las apelaciones a la IA ética también pueden ser aprovechadas por el gobierno para justificar políticas cuestionables que no han sido establecidas en la ley. Este es un enfoque limitado desde nuestra perspectiva porque no crea ningún requisito obligatorio ni prohíbe ciertos usos de la IA. Nuestro enfoque es más bien crear una acción que salve la brecha entre los principios y la práctica.

LIMITACIONES DE LA IA INCLUSIVA

Si bien los llamamientos a una IA inclusiva pueden ser bien intencionados, la inclusión por sí sola no apoya el progreso hacia la mitigación del daño. A veces, el respeto de la vida, la dignidad y los derechos puede exigir que un sistema reúna más datos con consentimiento afirmativo, por ejemplo para apoyar la precisión en la medicina de precisión en diversos grupos. Otras veces, incluir más datos puede significar mejorar un sistema que somete injustamente a las poblaciones vulnerables a un escrutinio selectivo adicional. Al servicio de la “inclusión”, los datos también pueden recogerse en violación de la privacidad y sin consentimiento.

Nos interesa crear sistemas robustos de IA cuando sea apropiado, cómo se recogen los datos y el propósito para el que se utilizan, pero es fundamental evaluar la inclusión. Por una parte, podemos tratar de mejorar la IA para limitar las gravísimas consecuencias de los prejuicios y la discriminación, por ejemplo, un coche que se conduce solo y que no detecta ciertos rostros de peatones o una mayor probabilidad de que la policía identifique erróneamente a las personas de piel más oscura como sospechosos de delitos. Al mismo tiempo, debemos seguir cuestionando si ese uso se apoya en nuestros valores y, por lo tanto, debe permitirse en absoluto. Si nos centramos únicamente en mejorar los conjuntos de datos y los procesos informáticos, corremos el riesgo de crear sistemas técnicamente más precisos, pero también más capaces de ser utilizados para la vigilancia masiva y para mejorar las prácticas policiales discriminatorias que permiten el uso de la fuerza letal.

Pascual López

Online marketer

Published by
Pascual López

Útimos Posts

Métricas de Email Marketing, cosas que estudiar ahora que tienes tiempo

Buscando cosas que estudiar y que puedan ser prácticas cuando volvamos al trabajo me he… Read More

5 meses ago

Herramientas para trabajar online durante la cuarentena

En estos momentos es cuando te acuerdas del poco tiempo invertido en investigar y probar… Read More

6 meses ago

La manera más simple de proteger tus datos personales

Uno de los grandes retos en la seguridad online actual es la protección de nuestros… Read More

10 meses ago