Sugerencias prácticas de expertos para el próximo ATEAC de Google (Ética)

//Sugerencias prácticas de expertos para el próximo ATEAC de Google (Ética)
google etica

Pedimos a los expertos sugerencias prácticas

sobre por qué el Consejo de ética de Amnistía Internacional de Google fue bombardeado y qué debería hacer la empresa a continuación.

Bueno, eso no tomó mucho tiempo. Después de poco más de una semana, Google dio marcha atrás en la creación de su Consejo Consultivo Externo de Tecnología Avanzada (ATEAC, por sus siglas en inglés), un comité destinado a brindar a la compañía orientación sobre cómo desarrollar de manera ética nuevas tecnologías como la IA. La inclusión del presidente de la Fundación Heritage, Kay Coles James, en el consejo provocó una protesta por sus opiniones anti-ambientalistas, anti-LGBTQ y anti-inmigrantes, y llevó a casi 2,500 empleados de Google a firmar una petición para su eliminación. En cambio, el gigante de internet simplemente decidió cerrar todo el asunto.

¿Cómo fueron las cosas tan mal? ¿Y puede Google ponerlos bien? Contamos con una docena de expertos en inteligencia artificial, tecnología y ética para decirnos dónde se perdió la empresa y qué podría hacer a continuación. Si estas personas hubieran estado en ATEAC, la historia podría haber tenido un resultado diferente.

En teoría, los consejos de ética  significa que las empresas de tecnología deberían estar dispuestas a compartir los criterios que están utilizando para seleccionar quién se sentará en estos consejos de ética. También deben ser transparentes y específicos sobre los roles y responsabilidades que tienen sus juntas de ética para que el público pueda evaluar su eficacia. De lo contrario, no tenemos idea de si las juntas de ética son en realidad una brújula moral o simplemente otro sello de goma. Dada la influencia y responsabilidad global de las grandes empresas de inteligencia artificial, este nivel de transparencia y responsabilidad es esencial.

“Considere lo que realmente significa gobernar la tecnología de manera efectiva y justa”
Jake Metcalf, investigador de ética tecnológica en Data & Society

Muestra cuán tensa y polémica será esta nueva era de la ética tecnológica. Google claramente  la malinterpretó en este caso. Las poblaciones políticamente marginales que están sujetas a los caprichos clasificatorios de las tecnologías AI / ML probablemente experimentarán los peores daños éticos de la toma de decisiones automatizada. Google favorece a Kay Coles James por su “diversidad de puntos de vista” sobre su odio abierto hacia las personas transgénero, lo que demuestra que no están considerando adecuadamente lo que realmente significa gobernar la tecnología de manera efectiva y justa. Podrían ser un gran beneficio cuando se trata de garantizar que los productos de AI sean seguros y no discriminatorios. Pero para que las juntas de ética tengan un impacto significativo, deben ser responsables públicamente y tener una autoridad de supervisión real.

Es complicado para las empresas porque la ética significa dos cosas diferentes que pueden ser contradictorias en la práctica: es el trabajo diario de comprender y mitigar las consecuencias (como ejecutar una herramienta de detección de sesgos o organizar una reunión de diseño deliberativa) y el juicio sobre cómo funciona la sociedad. se puede ordenar de la manera más justa (por ejemplo, si los daños dispares a las comunidades marginadas significan que una línea de productos debe ser enriquecida).

Las corporaciones son susceptibles a la primera y aterrorizadas de la segunda. Pero si la ética de AI no se trata de prevenir el abuso automatizado, bloquear la transferencia de tecnologías peligrosas a los gobiernos autocráticos o prohibir la automatización de la violencia estatal, es difícil saber qué piensan las empresas tecnológicas que no sean gestos vacíos.

Debajo de la nueva y agradable herramienta de informe de ética que es copacética con las métricas de KPI de la empresa, existe una preocupación genuina de que las vidas están en peligro. Mantener a todos en su cabeza a la vez es un desafío para las empresas burocráticamente y para los expertos en ética que invierten en ver más que solo las tecnologías ganen.

“Primero, reconozca al elefante en la habitación: los principios de inteligencia artificial de Google”

Evan Selinger, profesor de filosofía en el Instituto de Tecnología de Rochester Google puso el kibosh en ATEAC sin reconocer primero al elefante en la habitación:

los principios de inteligencia artificial que el CEO Sundar Pichai articuló durante el verano. Los principales académicos, las personas de las organizaciones de la sociedad civil y los empleados de alto nivel de las empresas de tecnología me han dicho constantemente que, si bien los principios se ven bien en el papel, son lo suficientemente flexibles como para ser interpretados de manera que eviten que Google necesite comprometer cualquier crecimiento a largo plazo estrategias, sobre todo porque los mecanismos de cumplimiento para violar los principios no están bien definidos y, al final, toda la empresa sigue siendo un esfuerzo de autorregulación.

Dicho esto, sin duda ayudaría a hacer que el liderazgo sea más responsable ante una junta de ética si el grupo estuviera (a) constituido correctamente; (b) otorgado poderes institucionales claros y sólidos (en lugar de simplemente estar allí para ofrecer asesoramiento); y (c) también, a su vez, someterse a estándares de responsabilidad transparentes para garantizar que no se convierta en un engranaje en una máquina de lavado de ética racionalizadora.

“Cambiar a las personas encargadas de armar estos grupos”.Ellen Pao, fundadora de Project Include

Este esfuerzo fallido muestra exactamente por qué Google necesita mejores asesores. Pero quizás también necesiten cambiar a las personas a cargo de la organización de estos grupos, y quizás sus equipos internos también deberían estar haciendo este trabajo. Hubo varios problemas con el resultado como todos hemos visto, pero también problemas con el proceso. Cuando no te has comunicado a todo el grupo sobre con quién trabajarán, es un gran error. Traer personas que son más reflexivas del mundo en el que vivimos debería haber ocurrido internamente antes de tratar de formar un grupo externo.

Nota al margen, las personas deben examinar los grupos a los que se unen, los paneles de conferencia en los que hablan y sus equipos antes de comprometerse para que sepan a qué se están inscribiendo. Es sorprendente cuánto puedes influir en ellos y cómo puedes cambiar la composición de un grupo con solo preguntar.

 

“Potencie el antagonismo, no estas amistosas asociaciones internas y esfuerzos de apoyo”

Meg Leta Jones, profesora asistente de Comunicación, Cultura y Tecnología en la Universidad de Georgetown

Las juntas éticas no son el trabajo de nadie, y solo ofrecen la posibilidad de conversaciones infrecuentes de alto nivel que, en el mejor de los casos, proporcionan una visión y la peor cobertura. Si queremos establecer confianza en instituciones como las tecnologías, las empresas de tecnología, los medios de comunicación y el gobierno, nuestra cultura política actual exige antagonismo, no estas amistosas asociaciones internas y esfuerzos de apoyo. El empoderamiento de los antagonistas y el apoyo al antagonismo pueden cumplir de manera más adecuada y efectiva los objetivos de la “IA ética”.

Mira hacia adentro y empodera a los empleados que se solidarizan con los grupos vulnerables”

Anna Lauren Hoffmann, profesora asistente de la Escuela de Información de la Universidad de Washington

El fallo de la junta directiva de ATEAC de Google deja en claro que la “ética de AI” no se trata solo de cómo concebimos, desarrollamos e implementamos tecnologías de AI, sino que también de cómo “hacemos” la ética. Las vulnerabilidades vividas, las distribuciones de poder e influencia, y cuyas voces se elevan son consideraciones integrales cuando se persigue la ética en el mundo real. Con ese fin, la debacle de ATEAC y otras instancias de rechazo (por ejemplo, contra el Proyecto Maven, Dragonfly y las políticas de acoso sexual) dejan claro que Google ya cuenta con un recurso tremendo en muchos de sus propios empleados.

Si bien también necesitamos una regulación significativa y supervisión externa, la compañía debe mirar hacia adentro y capacitar a los empleados que ya están marginados, dispuestos a organizarse y solidarizarse con los grupos vulnerables para abordar los problemas generalizados de la transfobia, el racismo, la xenofobia y el odio.

“Una junta no puede ser simplemente ‘algunas personas importantes que conocemos’. Necesitas éticos reales “

Patrick Lin, director del Grupo de Ética + Ciencias Emergentes en Cal Poly

En palabras de Aaliyah, creo que el siguiente paso para Google es desempolvarse y volver a intentarlo. Pero deben tener más en cuenta a quiénes integran la junta, no puede ser simplemente una lista de “preguntemos a algunas personas importantes que conocemos”, como parecía haber sido la versión 1.0 del consejo. Primero, si hay un interés sincero en obtener orientación ética, entonces necesita éticos reales, expertos que tengan capacitación profesional en ética teórica y aplicada. De lo contrario, sería un rechazo del valor de la experiencia, que ya estamos viendo demasiado de estos días, por ejemplo, cuando se trata de ciencia básica.
Imagínese si la compañía quisiera convocar un consejo de abogados de AI, pero solo había un abogado (al igual que solo había un filósofo en el consejo de ética de AI v1.0).

Eso levantaría serias banderas rojas. No es suficiente que alguien trabaje en asuntos de importancia legal: muchas personas lo hacen, incluyéndome a mí, y pueden complementar la opinión de expertos de abogados y abogados legales. Pero para que ese consejo sea verdaderamente efectivo, debe incluir expertos de dominio reales en su núcleo.

“Las últimas semanas mostraron que la organización directa funciona”.

Os Keyes, estudiante de doctorado en el Laboratorio de Ecología de Datos en la Universidad de Washington

Para ser honesto, no tengo ningún consejo para Google. Google está haciendo precisamente lo que deben hacer las entidades corporativas en nuestra sociedad; trabajar para obtener una ventaja política (y, por lo tanto, regulatoria y, por lo tanto, financiera) sin dejar que un rastro de moralidad recorte sus resultados trimestrales o plan estratégico. Mi consejo es para todos menos para Google.

Para personas fuera de Google: llame a sus representantes. Pregunte qué están haciendo con respecto a la regulación de la IA. Pregunte qué están haciendo con los controles de cabildeo. Pregunte qué están haciendo con respecto a la regulación corporativa. Para las personas en el mundo académico: llame a sus instructores. Pregúnteles qué hacen con respecto a enseñar a los estudiantes de ética que la ética solo es importante si se aplica y se vive. Para las personas dentro de Google: llame a las personas que están afuera y pregúnteles qué necesitan de usted. Los eventos de las últimas semanas mostraron que la organización directa funciona; La solidaridad funciona.

Es probable que cuatro reuniones al año no tengan un impacto. Necesitamos aportes de ética ágil ”
Irina Raicu, directora del programa de ética de internet en la Universidad de Santa Clara

Creo que esta fue una gran oportunidad perdida. Me dejó preguntándome quién, dentro de Google, estaba involucrado en la toma de decisiones sobre a quién invitar. (Esa decisión, en sí misma, requirió una contribución diversa). Pero esto se refiere al problema más amplio aquí: el hecho de que Google hizo el anuncio sobre la creación de la junta sin ninguna explicación de sus criterios para seleccionar a los participantes. También hubo muy poca discusión sobre sus razones para crear la junta, qué esperaban que fuera el impacto de la junta, etc. Si hubieran proporcionado más contexto, la discusión subsiguiente podría haber sido diferente.

También hay otros problemas; dada la rapidez con la que la IA se está desarrollando y desplegando, es probable que cuatro reuniones (incluso con un grupo diverso de asesores de ética de AI) en el transcurso de un año, no tengan un impacto significativo, es decir. Realmente cambiar la trayectoria de la investigación o el desarrollo del producto. Mientras el modelo sea un desarrollo ágil, también necesitamos una aportación de ética ágil.

“El grupo debe tener autoridad para decir no a los proyectos”

Sam Gregory, director de programa en Witness

Si Google desea realmente fomentar el respeto por la ética o los derechos humanos en las iniciativas de AI, primero deben reconocer que un consejo asesor, o incluso un consejo de gobierno, es solo una parte de un enfoque más amplio. Deben tener claro desde el principio que el grupo realmente tiene autoridad para decir no a los proyectos y ser escuchado. Luego, deben ser explícitos en el marco (recomendaríamos que se basen en las normas y normas internacionales de derechos humanos establecidas) y, por lo tanto, un individuo o grupo que tenga antecedentes de ser discriminatorio o abusivo no debería formar parte de él.

“Evite tratar la ética como un juego de relaciones públicas o un problema técnico”
Anna Jobin, investigadora del Laboratorio de Ética y Política de Salud del Instituto Federal de Tecnología de Suiza

Si Google se toma en serio la inteligencia ética, la empresa debe evitar tratar la ética como un juego de relaciones públicas o un problema técnico e integrarla en sus prácticas y procesos comerciales. Es posible que tenga que rediseñar sus estructuras de gobierno para crear una mejor representación y responsabilidad tanto para su fuerza laboral interna como para la sociedad en general. En particular, debe priorizar el bienestar de las minorías y las comunidades vulnerables en todo el mundo, especialmente las personas que están o pueden verse afectadas negativamente por su tecnología.

“Busque no solo la experiencia tradicional, sino también los conocimientos de las personas que son expertas en sus propias experiencias de vida”
Joy Buolamwini, fundadora de la Liga de Justicia Algorítmica.

Al pensar en la gobernanza de la inteligencia artificial, no solo debemos buscar la experiencia tradicional, sino también las ideas de las personas que son expertas en sus propias experiencias. ¿Cómo podemos involucrar a las voces marginadas en la configuración de la IA? ¿Cómo podría ser la IA participativa que centra las opiniones de quienes tienen mayor riesgo de sufrir los impactos adversos de la IA?

“Tal vez sea lo mejor que la higuera del ‘desarrollo ético’ haya sido eliminada”
Adam Greenfield, autor de Radical Technologies

Todo lo que hemos escuchado sobre este tablero ha sido vergonzoso, desde el instinto inicial de invitar a James a la decisión de cerrarlo en lugar de dedicar energía a lidiar con las consecuencias de esa elección. Pero dado que mis sentimientos acerca de la IA son más o menos los de la Jihad Butleriana, tal vez sea lo mejor que se haya eliminado la hoja de parra del “desarrollo ético”. Al final, no puedo imaginar ninguna recomendación de un panel asesor de este tipo, sin embargo, puede constituirse, obstaculizar lo que el mercado demanda y / o la necesidad percibida de competir con otros actores involucrados en el desarrollo de AI.

Es genial ver a las empresas, organizaciones e investigadores trabajando para crear marcos éticos para la IA. La industria de la tecnología está experimentando dolores de crecimiento en esta área: descubrir cómo hacer esto correctamente es un desafío y llevará tiempo e iteración. Creemos que es una oportunidad para seguir preguntando qué voces deben incluirse y asegurarnos de incluir voces diversas y voces que puedan verse directamente afectadas por los resultados de las decisiones tomadas. Es alentador ver el poder del activismo de los empleados que influye en el cambio en torno a este y otros problemas de la tecnología.

Aprendiendo de la experiencia de ATEAC Google debe incorporar procesos compensados ​​de revisión de la comunidad en el desarrollo de sus productos y servicios. Esto requerirá una transparencia significativa y una supervisión continua. Y Google y otros miembros de la Partnership on AI deben reservar una parte de las ganancias para proporcionar fondos del consorcio para la investigación sobre ética y responsabilidad de la IA, sin centrarse únicamente en la investigación de la imparcialidad de la AI que eleva las perspectivas técnicas solo.

https://www.technologyreview.com/s/613281/google-cancels-ateac-ai-ethics-council-what-next/?utm_campaign=the_download.unpaid.engagement&utm_source=hs_email&utm_medium=email&utm_content=71533071&_hsenc=p2ANqtz-_dhDY_VwjSMOYgGyPhSdF2LBLxi3JLz8ErD4c92xYX8mnAwr-mIkOWLayC2qO1RKIW3PQ-uN7iw1fTdFuK-cqO-nyOuA&_hsmi=71533071

No comments yet.

Leave a comment

Your email address will not be published.