La llaman la poeta del código de la investigación en Inteligencia Artificial (AI) que motivada por una experiencia personal de discriminación del algoritmo de reconocimiento facial, Joy contó su historia en una TED featured Talk que ya cuenta con más de 1.2 millones de visualizaciones y ayudó a lanzar the Algorithmic Justice League.
Este es un texto extraido de la web
Hay muchos términos diferentes que se han utilizado para describir un enfoque político de la IA. Queremos tener claro lo que entendemos por equitativo y responsable como algo separado de estos otros enfoques.
La noción de “IA ética” ha sido aprovechada por las grandes empresas tecnológicas -inversores y ejecutivos estratégicamente alineados con el mundo académico y el gobierno- para impulsar los principios voluntarios por encima de la regulación gubernamental. La idea de utilizar la ética no es problemática en sí misma, pero ha dado lugar a una proliferación de “Principios de la IA” con medios limitados para llevar estos principios a la práctica. Un sistema de ética de la IA permite a las empresas rendir cuentas únicamente de las normas que se han fijado para ellas mismas. La pelota está en su tejado de principio a fin. Las apelaciones a la IA ética también pueden ser aprovechadas por el gobierno para justificar políticas cuestionables que no han sido establecidas en la ley. Este es un enfoque limitado desde nuestra perspectiva porque no crea ningún requisito obligatorio ni prohíbe ciertos usos de la IA. Nuestro enfoque es más bien crear una acción que salve la brecha entre los principios y la práctica.
Si bien los llamamientos a una IA inclusiva pueden ser bien intencionados, la inclusión por sí sola no apoya el progreso hacia la mitigación del daño. A veces, el respeto de la vida, la dignidad y los derechos puede exigir que un sistema reúna más datos con consentimiento afirmativo, por ejemplo para apoyar la precisión en la medicina de precisión en diversos grupos. Otras veces, incluir más datos puede significar mejorar un sistema que somete injustamente a las poblaciones vulnerables a un escrutinio selectivo adicional. Al servicio de la “inclusión”, los datos también pueden recogerse en violación de la privacidad y sin consentimiento.
Nos interesa crear sistemas robustos de IA cuando sea apropiado, cómo se recogen los datos y el propósito para el que se utilizan, pero es fundamental evaluar la inclusión. Por una parte, podemos tratar de mejorar la IA para limitar las gravísimas consecuencias de los prejuicios y la discriminación, por ejemplo, un coche que se conduce solo y que no detecta ciertos rostros de peatones o una mayor probabilidad de que la policía identifique erróneamente a las personas de piel más oscura como sospechosos de delitos. Al mismo tiempo, debemos seguir cuestionando si ese uso se apoya en nuestros valores y, por lo tanto, debe permitirse en absoluto. Si nos centramos únicamente en mejorar los conjuntos de datos y los procesos informáticos, corremos el riesgo de crear sistemas técnicamente más precisos, pero también más capaces de ser utilizados para la vigilancia masiva y para mejorar las prácticas policiales discriminatorias que permiten el uso de la fuerza letal.
Ya sabemos que tu intención no es ser etiquetado como spam pero es posible que… Read More
Qué es el Google Web Core Vitals? Cómo podemos podemos mejorar los resultados y verlos… Read More
Vamos a repasar el contenido que debemos tener en cuenta para que una landing page… Read More