6 principios éticos al implementar IA

//6 principios éticos al implementar IA

Tecnología para un mejor futuro

Incluso cuando la “ética en la IA” gana espacio en la agenda de la IA, con piezas reflexivas sobre las amenazas existenciales planteadas por las máquinas súper inteligentes, todavía hay algunas lagunas evidentes en la conversación general sobre lo que podría ser el verdadero juego final de la IA ética. de hecho ser. Para ello, aquí hay 6 principios que los tecnólogos deben adoptar e incorporar a su práctica.

UNO. Cualquier ética que valga la pena codificar en nuestra tecnología debe ser sobre priorizar la justicia. No todas las éticas son anti-opresión u orientadas a la justicia. Es importante que lo aclaremos.

La siguiente es una imagen extremadamente útil para comprender la relación entre la justicia, la equidad y la igualdad en términos de resultados de acciones que podemos tomar en el mundo.

La premisa de la imagen anterior es que las ventajas y los beneficios de la sociedad (por definición, porque recibir un beneficio significa que alguien o algún grupo está desvirtuado, y tener una ventaja significa que alguien o algún grupo está en desventaja) no se distribuyen ni se les ofrece a todos personas igualmente

Por lo tanto, si queremos utilizar AI para elevar lo mejor de la humanidad, debemos permitir que los equipos implementen un marco analítico basado en análisis y acción que resuelva la equidad (como un paso intermedio), pertenencia, justicia e inclusión en su resolución de problemas mientras iteran hacia un producto final. En Fearless Futures llamamos a este diseño para la inclusión. Parte de este marco analítico debe incluir:

a) una comprensión fuerte y robusta de las opresiones interconectadas;

b) cómo se manifiestan y operan como procesos históricos y cómo se viven actualmente;

c) comprensión y responsabilidad de nuestros propios puestos privilegiados como diseñadores en relación con estas historias y presentes, y cómo eso se muestra como un bloqueador potencial para nuestro objetivo final a menos que se diseñe.

Parte de este marco analítico también será comprender que quién está en el equipo (y quién no), quién es escuchado (y quién no) también es un aporte en lo que estamos programando.

DOS. La historia es importante. Cuando estamos creando tecnología que genera el futuro, capacitados en información del pasado, necesitamos conocer nuestras historias de opresión. Y si no lo hacemos, necesitamos nuestro marco analítico para evaluar lo que deberíamos centrarnos. Las tecnologías de vigilancia predictivas, muy populares en los EE. UU. (Y que ganan fuerza aquí en el Reino Unido) han sido fuertemente criticadas por reproducir y amplificar el racismo. La brutalidad policial es una característica trágicamente normalizada de existir como Persona de Color en los Estados Unidos y en el Reino Unido. Sin embargo, esta realidad presente es parte de un continuo de práctica. Por ejemplo, en los Estados Unidos, la policía comenzó en el sur como una “Patrulla de esclavos”.Como detalla este artículo detallado: “La primera patrulla de esclavos formal se creó en las colonias de Carolina en 1704 (Reichel 1992). Las patrullas de esclavos tenían tres funciones principales: (1) perseguir, aprehender y regresar a sus dueños, esclavos fugitivos; (2) proporcionar una forma de terror organizado para disuadir las revueltas de esclavos; y, (3) mantener una forma de disciplina para los trabajadores esclavos que estaban sujetos a justicia sumaria, fuera de la ley, si violaban cualquier regla de plantación. Después de la Guerra Civil, estas organizaciones estilo vigilante evolucionaron en los modernos departamentos de policía del sur principalmente como un medio para controlar a los esclavos liberados que ahora trabajaban en un sistema de castas agrícolas, y aplicando las leyes de segregación “Jim Crow”, diseñadas para negar esclavos liberadosderechos y acceso al sistema político “.

En el Reino Unido, en un contexto paralelo, podemos recurrir a las “leyes sus”, el nombre informal dado a la política de detención y búsqueda, arraigado en la Ley de vagancia de 1824, específicamente la sección 4. Le dio a la policía poderes para registrar a cualquier sospechoso ( de ahí “sus”) de tener la intención de hacer algo criminal. En un mundo así, quedarse quieto en el espacio público podría ser (¿y es?) Una justificación para las personas de color detenidas y registradas por la policía. En un mundo en el que las personas negras se construyen a través del lente dominante, blanco como peligroso, con los recursos del estado utilizados para frenar su ser, podríamos centrar nuestros esfuerzos en poner fin al impacto material y el peligro que estas políticas tienen en sus vidas.A pesar de que la política finalizó formalmente debido a los esfuerzos de la campaña Scrap Sus liderada por Mavis Best, los negros tienen al menos 8 veces más probabilidades que los blancos de buscar drogas en Inglaterra y Gales, aunque es menos probable que se encuentren drogas en ellos. ¿Qué significa esto para los datos de entrenamiento en los que nuestras máquinas “predictivas” pueden ser entrenados?

Una lente histórica proporciona el marco para el análisis de las preguntas que podríamos necesitar sobre los datos con el fin de programar dicha tecnología predictiva para la equidad en lugar de una continuación de un brutal pasado y status quo en el futuro.

Cuando lleguemos a la tecnología emergente con este objetivo histórico, podríamos preguntar: ¿quién fue específicamente el sistema invertido en la actuación policial y quién no? De hecho, como comenta Cathy O’Neil en su libro “Armas de Destrucción Matemática”, la policía predictiva no está generando conclusiones para los departamentos de policía que los tienen asignando sus recursos fuera de los bancos en la ciudad de Londres o en Wall Street. Las personas que participan en actos que derrumban economías enteras no son aquellas que las máquinas consideran personas que necesitan ser vigiladas. El algoritmo no se ha configurado para frenar sus acciones. Lo que incluso clasificamos como crimen es fundamental para las tecnologías predictivas como esta. Además, tal vez deseemos preguntarnos si nuestro sistema de justicia penal existente es digno de ser “optimizado” o si deseamos explorar paradigmas alternativos, fuera de la cárcel, en conjunto.

TRES. Los principios de Google AI salieron el otro día diciendo que no participarán: “Tecnologías que causan o pueden causar un daño general. Cuando exista un riesgo material de daño, procederemos solo cuando creamos que los beneficios superan sustancialmente los riesgos e incorporaremos las restricciones de seguridad apropiadas “(las cursivas son mías).

Si bien esto puede sonar positivo, deja mucho que desear. Para empezar: ¿Qué es daño? ¿Quien decide? El verdadero problema en el corazón de la injusticia es que aquellos que están sujetos a estructuras de poder no son creídos, no son escuchados, son despedidos y experimentan violencia por aquellos que se benefician de las mismas estructuras de poder. Llamo a esto la paradoja del poder (y el privilegio). Lo que quiere decir que las mismas personas que tienen el poder de actuar para acabar con la injusticia (muchos de los cuales son quienes programan nuestras máquinas) son precisamente quienes, por su posición, son:

ajeno al otro lado de su experiencia
invertido en el status quo porque les sirve
han sido entrenados implícita y explícitamente para preservar su posición
Y así han sido, de alguna manera, programados para usar su poder para mantenerlo.

Un enfoque para limitar el daño (cualquiera que sea) es describir los “riesgos” o probabilidades de daño de una herramienta en particular. Este es un ejemplo de un documento que lo hace para una herramienta de sentencia que se está probando en Pensilvania. Sin embargo, cuando se plantean “riesgos” de daño, sabemos que una herramienta para perpetuar la opresión es justificarlos o excusarlos, lo que deja el impacto dañino en su lugar. Para contrarrestar este patrón de comportamientos, exigimos que aquellos con poder estructural se inviertan en generar resultados de equidad y justicia.

Una forma de construir un mecanismo para este fin sería replantear la carga de la prueba para que quienes diseñan estas tecnologías tengan que demostrar que no perpetúan la opresión en ninguna comunidad antes de poder avanzar con su producto.

Después de todo, sin este nuevo encuadre, sabemos que lo que es un ‘riesgo’ de inexactitud para una parte es un resultado material que podría ser la diferencia entre la vida o la muerte para la otra. Y decepcionantemente, tales riesgos a menudo se toman, especialmente en busca de ganancias.

LAS CUATRO. Simplemente debemos insistir en utilizar el lenguaje de la opresión en lugar del prejuicio cuando se trata de inteligencia artificial y tecnología emergente. La versión corta: porque sin un marco para analizar el poder estructural, nos falta el punto y no vamos a ninguna parte. La versión más larga y más matizada: lea el artículo de mi colega Sara aquí. Para más información sobre estos conceptos, los “Algoritmos de opresión” del Dr. Safiya Noble son geniales.

CINCO. Necesitamos tanto enfoque en cómo enseñamos a los tecnólogos como lo que les enseñamos a hacer cuando se trata de diseñar la inclusión en la IA. ¿Qué hace que la educación sea sostenible y transformadora?

¿Qué conocimiento necesitamos para transformar las relaciones desiguales de poder en nuestra tecnología?

Si nos enfocamos únicamente en el conocimiento, sin prestar atención a cómo la gente hace un aprendizaje profundo sobre el complejo y matizado material en el centro de la opresión y las relaciones sociales, es probable que el suelo en el que las empresas de tecnología crezcan no se alteren. Esto es porque cómo, qué, por qué y a quién decidimos priorizar en nuestras tecnologías también es una función de la forma en que nos relacionamos en el proceso de diseño. ¿Estamos optimizando en estos contextos para una subversión de las dinámicas de poder entre nosotros mismos y centrando a aquellos cuyas voces están marginadas a descubrir un conocimiento diferente? Si volvemos a la Paradoja del Poder desde antes, tal vez deseemos concebirnos a nosotros mismos como capacitados en datos a lo largo de nuestras vidas que preservan el poder estructural que tenemos. La pregunta para quienes están a la vanguardia de la tecnología emergente es: ¿están dispuestos a desaprender para que sus tecnologías funcionen para la justicia? ¿Estás dispuesto a interrumpir ese status quo? Esto puede parecer algo esponjoso dentro de nuestros entornos de tecnología hipermasculinizada, pero es extremadamente difícil. Y extremadamente necesario. En resumen, el círculo vicioso se perpetuará a menos que podamos generar nuevas culturas de ser y hacer dentro de la tecnología.

SEIS. Hay un fuerte coro detrás de la transparencia como una solución a la ausencia de ética en la inteligencia artificial. La lógica es que si podemos ver lo que está pasando, las cosas malas no sucederán. No estamos tan seguros La transparencia solo nos llevará hasta ahora, no es una panacea. Después de todo, incluso cuando las verdades alarmantes están expuestas, sabemos que el poder responde actuando para preservarse. Un ejemplo simple podría ser el reporte de brecha salarial de género recientemente instituido para compañías con más de 250 empleados en el Reino Unido. Sí, la información está disponible, pero vimos muy rápidamente cómo las empresas defendían el statu quo (a menudo simplemente porque la gente utilizaba una explicación de la brecha salarial de género).

La relación entre los empleados de Google con respecto a la búsqueda de su compañía (ahora finalizada con éxito debido a la acción de los empleados) de Project Maven (un programa que utiliza el aprendizaje automático para mejorar la focalización de las huelgas) también es un buen ejemplo de esto. Este artículo aquí detalla la larga batalla entre los trabajadores de tecnología y la administración. Los trabajadores tecnológicos tenían que crear poder para desafiar a la gerencia. Algunos renunciaron en protesta. El conocimiento del proyecto por sí solo no generó cambios en sí mismo. De hecho, la gerencia impugnó activamente la resistencia de sus empleados al Proyecto Maven. Se hicieron justificaciones y excusas para mantener el contrato. A menos que también podamos aceptar que las crecientes capacidades para organizar y construir energía son esenciales junto con la transparencia, dentro y fuera de las empresas de tecnología, la transparencia por sí sola puede ser otra herramienta de distracción de quienes tienen el poder. Lo que parece mucho más poderoso es que los principios de justicia -como se explora en los puntos 1-5- se codifiquen en las telas de las organizaciones en primer lugar.

Conclusión: estos son 6 principios que creemos deben ser centrados por los tecnólogos en AI. Esto comienza respondiendo afirmativamente a esta pregunta: cuando estás diseñando el futuro, ¿puedes hacer todo lo posible para alterar las historias opresivas y los regalos al repetirse e imaginar un mundo justo y humano, y luego diseñar las culturas y productos de tu equipo para eso?

Gracias de corazón a @natalieisonline y Sara Shahvisi, nuestra Directora de Programas por sus brillantes reflexiones y comentarios que informaron mejor la pieza.

No comments yet.

Leave a comment

Your email address will not be published.