Ética e Inteligencia Artificial

//Ética e Inteligencia Artificial

Herzberg conducía su bicicleta en una calle en Tempe, Arizona, cuando fue atropellada y asesinada por un auto autónomo.

Aunque había un operador humano detrás del volante, un sistema autónomo (inteligencia artificial) estaba en control total. Este incidente, al igual que otros relacionados con las interacciones entre las personas y las tecnologías de la IA, plantea una serie de preguntas éticas y legales. ¿Qué obligaciones morales Consideran un cambio social que parece prosaico: a las máquinas ya se les está dando el poder de tomar decisiones cotidianas que alteran la vida de las personas.

La inteligencia artificial puede agregar y evaluar vastas cantidades de datos que a veces están más allá de la capacidad humana para analizar sin ayuda, lo que permite a la IA hacer recomendaciones de contratación, determinar en segundos la solvencia crediticia de los solicitantes de préstamos y predecir las posibilidades de que los delincuentes se vuelvan a ofender. Pero tales aplicaciones plantean problemas éticos preocupantes porque los sistemas de IA pueden reforzar lo que han aprendido de los datos del mundo real, incluso amplificando los riesgos familiares, como el sesgo racial o de género.

Los sistemas también pueden cometer errores de juicio cuando se enfrentan a escenarios desconocidos. Y debido a que muchos de estos sistemas son “cajas negras”, los seres humanos no pueden acceder o entender fácilmente las razones de sus decisiones, y por lo tanto son difíciles de cuestionar o investigar. Abundan los ejemplos. En el 2014, Amazon desarrolló una herramienta de reclutamiento para identificar a los ingenieros de software que podrían contratar; el sistema rápidamente comenzó a discriminar a las mujeres y la compañía lo abandonó en 2017. En 2016, ProPublica analizó un sistema desarrollado comercialmente que predice la probabilidad de que los delincuentes se vuelvan a ofender, creado para ayudar a los jueces a tomar mejores decisiones de sentencia, y descubrió que era así. sesgado contra los negros.

Durante los últimos dos años, los autos autonomos que se basan en las reglas y los datos de entrenamiento para operar, han causado accidentes fatales cuando se enfrentan a comentarios sensoriales o entradas desconocidas que sus sistemas de guía no pudieron interpretar. El hecho de que los desarrolladores comerciales privados generalmente se nieguen a hacer que su código esté disponible para su escrutinio, ya que el software se considera propiedad intelectual patentada, es otra forma de no transparencia: más legal que técnica.

 

Inteligencia artificial ”se refiere a los sistemas que pueden diseñarse para tomar señales de su entorno y, en base a esas entradas, proceder a resolver problemas, evaluar riesgos, hacer predicciones y tomar medidas. En la era anterior a las computadoras poderosas y al big data, tales sistemas fueron programados por humanos y seguían las reglas de la invención humana, pero los avances en tecnología han llevado al desarrollo de nuevos enfoques. Uno de ellos es el aprendizaje automático, ahora el área más activa de la IA, en la cual los métodos estadísticos permiten que un sistema “aprenda” de los datos y tome decisiones, sin ser programado explícitamente. Dichos sistemas combinan un algoritmo, o una serie de pasos para resolver un problema, con una base de conocimientos o flujo de información: la información que el algoritmo usa para construir un modelo del mundo.

Las preocupaciones éticas sobre estos avances se centran en un extremo en el uso de la IA en drones militares mortales, o en el riesgo de que la IA pueda acabar con los sistemas financieros mundiales. Más cerca de casa, Amnistía Internacional ha estimulado la ansiedad por el desempleo, ya que los sistemas autónomos amenazan con reemplazar a millones de conductores de camiones y hacen que Lyft y Uber queden obsoletos. Y más allá de estas consideraciones sociales y económicas más amplias, los científicos de datos tienen preocupaciones reales sobre el sesgo, sobre las implementaciones éticas de la tecnología y sobre la naturaleza de las interacciones entre los sistemas de inteligencia artificial y los seres humanos. Mientras tanto, nada sobre los avances en la tecnología, por sí mismo, resolverá el problema fundamental y subyacente en el corazón de la IA, que es que incluso un algoritmo cuidadosamente diseñado debe tomar decisiones basadas en los aportes de un mundo real imperfecto, imperfecto, impredecible e idiosincrásico.

Los científicos informáticos han percibido antes que otros que la ingeniería no siempre puede abordar tales problemas post hoc, después de que se haya diseñado un sistema. A pesar de los avances notables en áreas como la privacidad de los datos y una comprensión clara de los límites de la equidad algorítmica, la consideración de que los problemas éticos deben considerarse en muchos casos antes de implementar un sistema. ha llevado a la integración formal de un plan de estudios de ética, impartido por becarios posdoctorales de filosofía y estudiantes graduados, en muchas clases de informática en Harvard.

Se están llevando a cabo discusiones de gran alcance sobre el impacto social de la IA en el mundo entre científicos de datos de toda la Universidad, así como en la Iniciativa de Ética y Gobernanza de la IA lanzada por el Centro Berkman Klein de la Facultad de Derecho de Harvard, junto con el MIT Media Lab. Este enfoque cada vez más intenso en la ética se originó con un miembro de la facultad de informática.   

De la comunicación a la cooperación y la ética

 “HACE UNOS AÑOS”, dice Barbara Grosz, profesora de ciencias naturales de Higgins, “visitaba a unos amigos en Microsoft (el marido desarrolla sistemas de visión artificial) y conducimos a algún lugar para caminar. En la autopista frente a nosotros había un camión, con un baño en la parte trasera y una bicicleta atada al baño. “¿Qué haría mi sistema con esto?”, Se preguntó el marido. “¿Sabría cómo reaccionar ante eso?” La respuesta es, probablemente no. Es poco probable que una imagen así forme parte de su “experiencia”: la vasta colección de imágenes, laboriosamente etiquetadas por humanos, que forman los datos de entrenamiento de un sistema La fragilidad de los sistemas actuales de IA contrasta con la inteligencia humana, que es robusta, capaz de aprender algo en un contexto y de aplicarla rápidamente a otro. Incluso si las computadoras pueden distinguir las bicicletas de los camiones de los aparatos portátiles, tienen dificultades para reconocer cómo podrían haberse unido para viajar por la autopista, con la bicicleta de lado, a 60 millas por hora. (La explotación de esta vulnerabilidad de entrada es el tema de la “IA y los ataques adversos”.) En otras palabras, la IA carece de sentido común y la capacidad de razonar, incluso si puede hacer descubrimientos increíbles que ningún humano puede, como detectar terceros. o interacciones de orden superior (cuando tres o más variables deben interactuar para tener un efecto) en redes biológicas complejas. “Deja de pensar en que los robots se hagan cargo”, así lo resume Grosz. “Tenemos más que temer de los sistemas tontos que la gente cree que son inteligentes que de los sistemas inteligentes que conocen sus límites”. Grosz, quien estudió matemáticas en Cornell y luego informática en Berkeley, ha trabajado en problemas en IA desde 1973, cuando fue contratada como investigadora matemática en el Centro de Inteligencia Artificial de SRI International.

Se le considera una arquitecta del subcampo de inteligencia artificial dedicado a la manera en que las computadoras generan e interpretan el habla y el texto humanos; ganó el Premio a la Excelencia Lifetime Achievement Award de la Asociación de Lingüística Computacional en 2017, y puede recabar una letanía de formas en que los sistemas con capacidad lingüística tales como como Alexa, Siri, y Google se quedan cortos. Saben dónde está la sala de emergencias más cercana, por ejemplo, pero no que pueda ser útil dirigir a alguien con un tobillo roto para que vaya allí.

Debido a que su trabajo de inteligencia artificial en el lenguaje es anterior a los enfoques basados ​​en datos para el procesamiento del lenguaje natural, Grosz desarrolló un enfoque basado en modelos para representar el discurso humano de una manera que las computadoras pudieran entender. Esto ha demostrado ser especialmente valioso para el campo porque la llevó a reflexionar profundamente sobre la naturaleza de la interacción persona-computadora, y más tarde, en el curso de imaginar un futuro en el que las computadoras y los seres humanos podrían trabajar juntos, para proponer modelos teóricos para sistemas colaborativos de inteligencia artificial.

Diseñado para trabajar en equipo con personas. Su trabajo sobre modelos computacionales del discurso va mucho más allá de la programación de reglas gramaticales. Entender la intención del hablante, para determinar la estructura de un diálogo y así descifrar el significado en el habla humana, fue una de las estrategias clave en las que fue pionera. El habla real, señala, está llena de digresiones y cambios de enfoque, citando un ejemplo notable: su grabación del diálogo espontáneo cuando una persona trata de decirle a otra vía teletipo cómo ensamblar un compresor de aire. (En la conversación, un orador usa el pronombre “it” para referirse a un objeto que no se ha mencionado durante media hora, y ambas personas entienden exactamente lo que significa). La entonación, agrega, también es clave para entender lo contrario.

Frases ambiguas. “Eres un verdadero príncipe” podría decirse literalmente o sarcásticamente, de una manera que una computadora debe aprender a comprender. De esta investigación interdisciplinaria surgieron principios generales sobre la naturaleza de la interacción humano-computadora. Grosz, con el estudiante de doctorado Ece Kamar (ahora investigador principal de Microsoft Research) desarrolló una teoría de “gestión de interrupciones”, por ejemplo, para guiar el intercambio de información entre un ser humano y una computadora a fin de hacer esa comunicación exponencialmente más eficiente. Y ella ha llegado a creer, durante el transcurso de una larga carrera, que el mejor uso de la IA implica la integración de tales sistemas con equipos humanos. Ella imagina un futuro que combina la velocidad y la destreza estadística de las computadoras inteligentes con talentos humanos innatos, no uno que enfrenta a las máquinas y los humanos entre sí, la forma en que la relación a menudo se enmarca en las descripciones de los sistemas de inteligencia artificial que vencen a los campeones del mundo en ajedrez e ir o reemplazar a las personas en el lugar de trabajo.

Tal enfoque integrado representa posiblemente la frontera en los sistemas de inteligencia artificial. Cuando Grosz comenzó a experimentar con sistemas de inteligencia artificial basados ​​en el equipo en el cuidado de la salud, ella y un pediatra de Stanford comenzaron un proyecto que coordina el cuidado de niños con enfermedades raras que son atendidos por muchas personas además de los padres, incluidos expertos médicos, auxiliares de atención domiciliaria y fisioterapeutas. , y profesores de aula. La atención abarca años, dice, y “ningún ser humano con el que me haya encontrado puede hacer un seguimiento de otras 15 personas y lo que están haciendo durante largos períodos de tiempo”. Grosz, con la estudiante de doctorado Ofra Amir (ahora miembro de la facultad en el Technion) comenzó analizando cómo funcionaban los equipos de atención al paciente, y desarrolló una teoría del trabajo en equipo para guiar las interacciones entre los miembros humanos y un sistema de inteligencia artificial diseñado para coordinar la información sobre el cuidado de los niños.

Como lo había hecho con el lenguaje, comenzó con principios generales. “Lo que estamos tratando de hacer, en el aspecto teórico, es entender mejor cómo compartir información” en ese entorno de equipo de miembros múltiples “y luego crear herramientas, primero para los padres y luego para los médicos”. Cuando Grosz comenzó a experimentar con sistemas de inteligencia artificial basados ​​en el equipo en el cuidado de la salud, ella y un pediatra de Stanford comenzaron un proyecto que coordina el cuidado de niños con enfermedades raras que son atendidos por muchas personas además de los padres, incluidos expertos médicos, auxiliares de atención domiciliaria y fisioterapeutas. , y profesores de aula.

La atención abarca años, dice, y “ningún ser humano con el que me haya encontrado puede hacer un seguimiento de otras 15 personas y lo que están haciendo durante largos períodos de tiempo”. Grosz, con la estudiante de doctorado Ofra Amir (ahora miembro de la facultad en el Technion) comenzó analizando cómo funcionaban los equipos de atención al paciente, y desarrolló una teoría del trabajo en equipo para guiar las interacciones entre los miembros humanos y un sistema de inteligencia artificial diseñado para coordinar la información sobre el cuidado de los niños.

Como lo había hecho con el lenguaje, comenzó con principios generales. “Lo que estamos tratando de hacer, en el aspecto teórico, es entender mejor cómo compartir información” en ese entorno de equipo de miembros múltiples “y luego crear herramientas, primero para los padres y luego para los médicos”. Uno de los principios clave que ella y su colega, el profesor Sarit Kraus de la Universidad de Bar-Ilan, desarrollaron es que los miembros del equipo no deben asumir tareas que les faltan el conocimiento o la capacidad necesarios para realizarlas.

Esta es una característica del buen trabajo en equipo humano, así como una característica clave de los “sistemas inteligentes que conocen sus límites”. “El problema, no solo con la IA, sino con una gran cantidad de tecnología que existe en el mundo, es que puede No haga el trabajo que le ha sido asignado “: los chatbots de servicio al cliente en línea interactúan a través de un texto que” no pueden entender lo que quiere “, por ejemplo. Esos sistemas podrían haber sido diseñados de manera diferente, dice, de modo que las primeras interacciones son con una persona asistida por una computadora; la persona estaría creando una relación con el cliente, mientras examinaba lo que la computadora estaba claramente malinterpretando, y el sistema, mientras tanto, le permitiría proporcionar una respuesta más rápidamente.

Cuando tales fundamentos del diseño de sistemas inteligentes no se respetan, se asume que los sistemas son capaces de cosas que no pueden hacer, o se usan de manera ingenua e inapropiada. El enfoque altamente interdisciplinario de Grosz para la investigación, basado en la lingüística, la filosofía, la psicología, la economía e incluso un poco de antropología y sociología, la llevó a pensar también en cuál de estos temas podría informar mejor la enseñanza del diseño de sistemas de inteligencia artificial. Aunque había enseñado un curso introductorio sobre IA desde 1987 hasta 2001, en un momento en que su aplicación era en gran medida teórica, el mundo había cambiado cuando reinició ese curso en 2013 y 2014, cuando se estaban implementando sistemas de AI totalmente operativos.

Grosz se dio cuenta de que había una oportunidad de enseñanza en la interacción entre los desafíos éticos presentados por AI y el buen diseño de sistemas. Esto llevó a una de las contribuciones más importantes de Grosz a la enseñanza de ciencias de la computación en Harvard: la idea de que la ética debería integrarse estrechamente en cada curso. En el otoño de 2015, presentó un nuevo curso, “Diseño de sistemas inteligentes y desafíos éticos”. Al año siguiente, más de 140 estudiantes habían solicitado los 25 puestos en la clase, animándola a alentar a sus colegas de informática para que Incorporar alguna enseñanza de la ética en sus propios cursos.

Debido a que la mayoría de ellos carecían de los antecedentes suficientes para sentirse cómodos enseñando ética, comenzó una colaboración con la profesora de filosofía de Wolcott, Alison Simmons, quien preside el departamento de filosofía. Juntos, trabajaron con colegas en sus respectivos campos, alistando a profesores de CS dispuestos a incluir módulos de ética en sus cursos de informática y estudiantes graduados de filosofía para enseñarles. El objetivo de esta iniciativa es “Ética incrustada”, dice ella, es instruir a las personas que construirán los futuros sistemas de inteligencia artificial sobre cómo identificar y reflexionar sobre las cuestiones éticas. (La informática es ahora la segunda concentración más grande entre los estudiantes universitarios de Harvard; si se incluyen los estudiantes de los campos relacionados, como las estadísticas o las matemáticas aplicadas, la inscripción total supera ampliamente la economía de mayor rango). “La mayoría de estos temas no tienen un solo derecho. La respuesta”, señala, “así como [los estudiantes] aprenden habilidades fundamentales de computación, yo quiero que aprendí habilidades fundamentales de razonamiento ético”.

En la primavera de 2017, cuatro cursos de informática incluyeron algunos estudios de ética. Ese otoño, hubo cinco, luego 8 en la primavera de 2018, y ahora 18 en total, abarcando temas desde la programación de sistemas hasta el aprendizaje automático y sus efectos en la imparcialidad y la privacidad, hasta las redes sociales y la cuestión de la La censura, los robots y el trabajo, y la interacción persona-ordenador. Las encuestas de los estudiantes en estas clases se muestran en el 80 y el 90 por ciento de la enseñanza de la ética integrada y desea más. “Mi fantasía”, dice Grosz, “es que todos los cursos de informática, con quizás una o dos excepciones, tendremos un módulo de ética”, de modo que se gradúe, cada concentrador vería que “la ética es importante en todas las partes del campo, no solo en AI “. Ella y sus colegas quieren que los estudiantes aprendan para abordar problemas como el sesgo y la necesidad de interpretación humana en el IA, deben ser sistemas con principios éticos en la mente desde el principio.

Convertirse en un conductor de Boston

El PROFESOR BEMIS de derecho internacional y el profesor de informática Jonathan Zittrain, quien es director de la facultad del Centro Berkman Klein para Internet y la Sociedad, ha estado lidiando con este objetivo desde una perspectiva proto-legal. En la primavera de 2018, fue profesor de un curso con el director del MIT Media Lab, Joi Ito, explorando cómo deberían configurarse las tecnologías de inteligencia artificial para tener en cuenta el interés público. Los vehículos autónomos proporcionaron un estudio de caso particularmente sobresaliente que obligó a los estudiantes a enfrentar la naturaleza de las complejidades futuras, más allá del “problema de los trolley fuera de control” de decidir a quién dañar y a quién salvar.

Una vez que un automóvil es verdaderamente autónomo, Zittrain explica: “Esto significa que si se emite una orden de arresto para alguien, la próxima vez que ingresen en un vehículo autónomo, las puertas podrían cerrarse y el automóvil podría conducirlos a la estación de policía más cercana. ¿O si alguien en el automóvil declara una emergencia? “¿Puede el automóvil propulsarlos a 70 millas por hora en las calles de la ciudad al hospital, mientras que todos los demás autos parten como el Mar Rojo?” Los estudiantes en la clase de Zittrain pensaron que sabían cómo se desarrollaría la discusión sobre los vehículos autónomos.

Pero cuando planteó una pregunta muy simple: “¿Debería el conductor ser capaz de instruir al auto para que conduzca 80 millas por hora?”, Se enfrentaron a los dilemas morales de un diseñador. Si es así, y el automóvil estuvo involucrado en un accidente a esa velocidad, ¿sería responsable el conductor? ¿O el fabricante de automóviles sería responsable de permitir que el automóvil acelere? “La gente acelera todo el tiempo, pero tenemos la comodidad implícita de saber que no hay nada que podamos hacer al respecto”, señala Zittrain. “La premisa inicial comprensible (con vehículos autónomos) es que, no hay conductor, y no podemos culpar a un objeto inanimado como un automóvil. Parece que hay una escasez de responsabilidad “, aunque de hecho,” hay un exceso de responsabilidad “.

Los fabricantes, los diseñadores de AI, los responsables políticos y el conductor podrían ser responsables. Y la situación se vuelve más compleja si el sistema de inteligencia artificial del vehículo cambia dinámicamente su comportamiento a medida que “aprende” de las experiencias en la carretera, señala Zittrain. “¡Tal vez si maneja lo suficiente en Boston, se convertirá en un conductor de Boston!” Esto se aplica a muchos sistemas de aprendizaje, y las soluciones legales permanecen inexploradas. Tal vez, sugiere, si un diseñador de inteligencia artificial u otro colaborador construye un sistema de aprendizaje en el que no siempre se puede predecir el comportamiento, habrá una etiqueta de precio al operar con esa incertidumbre.

El tema es un nexo de investigación interdisciplinaria, continúa Zittrain. En el Berkman Klein Center y en el Laboratorio de Medios del MIT, él y sus colegas crearon un grupo llamado “Asamblea” que reúne a los desarrolladores de software de empresas externas para trabajar con los estudiantes y entre ellos durante un par de meses en algunos de estos enigmas. IA y otros campos de la ciencia de datos. “La instrucción de ética incorporada es parte de un esfuerzo por crear oportunidades para que estudiantes de toda la Universidad se encuentren entre sí y traigan las herramientas que están aprendiendo en sus respectivas escuelas para abordar este tipo de cosas en equipos. “Creo que eso es parte de lo que ha hecho que la investigación y la investigación de Barbara [Grosz] sean tan influyentes aquí. Y tan atemporal. Su enseñanza no es cómo intervenir en un sistema informático o pieza de software para solucionarlo.

Realmente se está pensando a un nivel más amplio acerca de cómo deberían interactuar las personas y las tecnologías “. ¿Pueden ser responsables? ¿Se pueden entender? ¿Pueden ser justos?

 Sesgo sistémico e ingeniería social

El problema de la equidad en los sistemas autónomos se destacó en la Conferencia de Ciencia de Datos de Harvard (HDSC) en octubre, donde el profesor de ciencias de la computación de la Colonia, David Parkes, describió los principios rectores para el estudio de la ciencia de datos en Harvard: debe abordar cuestiones éticas, incluida la privacidad; no debe perpetuar los sesgos existentes; y debe ser transparente.

Pero crear sistemas de inteligencia artificial que incorporen estos principios puede ser difícil. La complejidad del sistema, cuando miles o más variables están en juego, puede hacer que la verdadera comprensión sea casi imposible, y los sesgos en los conjuntos de datos en los que se basan los sistemas de aprendizaje pueden reforzarse fácilmente. Hay muchas razones por las que alguien podría querer “mirar bajo el capó” de un sistema de inteligencia artificial para averiguar cómo tomó una decisión particular: evaluar la causa de la salida sesgada, realizar controles de seguridad antes de su implementación en un hospital o determinar la responsabilidad después de un accidente que involucra un auto-auto conducido.

Lo que podría no ser obvio es cuán difícil y compleja puede ser esa investigación. El profesor asistente de ciencias informáticas Finale Doshi-Velez demostró proyectando en la pantalla un árbol de decisiones relativamente simple, con cuatro capas de profundidad, que implicaba responder preguntas basadas en cinco entradas (consulte un ejemplo un poco más complejo, más arriba). Si se ejecuta correctamente, la instrucción final fue levantar la mano izquierda. Algunos de los asistentes a la conferencia pudieron seguirlos.

Luego mostró un árbol de decisiones mucho más complejo, tal vez con 25 capas de profundidad, con cinco nuevos parámetros que determinan el camino a través del árbol hacia la respuesta correcta, una tarea fácil para una computadora. Pero cuando ella preguntó si alguien en la audiencia podía describir con palabras por qué habían llegado a la respuesta que recibieron, nadie respondió. Incluso cuando se resalta el camino correcto hacia una decisión, es extremadamente difícil describir la influencia de las entradas interactivas complejas en el resultado en términos sencillos. Y eso es solo para modelos simples como árboles de decisión, no para arquitecturas profundas modernas con millones de parámetros.

El desarrollo de técnicas para extraer explicaciones de modelos arbitrarios (sistemas escalables con un número de variables, tareas y resultados) es el tema de investigación en su laboratorio. El sesgo plantea un conjunto diferente de problemas. Siempre que hay una población diversa (que difiere según la etnia, la religión o la raza, por ejemplo), explicó la profesora de ciencias informáticas McKay, Cynthia Dwork, durante una charla sobre la equidad algorítmica, un algoritmo que determina la elegibilidad para, por ejemplo, un préstamo, debe tratarse. cada grupo de la misma manera.

Pero en los sistemas de aprendizaje automático, el algoritmo en sí (el procedimiento paso a paso para resolver un problema en particular) constituye solo una parte del sistema. La otra parte son los datos. En un sistema de inteligencia artificial que toma decisiones de préstamo automatizadas, el componente del algoritmo puede ser imparcial y completamente justo con respecto a cada grupo y, sin embargo, el resultado general, después de que el algoritmo haya aprendido de los datos, puede no serlo. “Los algoritmos no tienen acceso a la verdad básica” (jerga de la computadora para veritas), explicó Dwork. Si hay un sesgo en los datos utilizados para tomar la decisión, la decisión en sí puede estar sesgada.

 

Hay maneras de manejar este problema. Uno es seleccionar con mucho cuidado los atributos del solicitante que se permite considerar un algoritmo. (Los códigos postales, como proxies bien conocidos para la raza, a menudo se eliminan). Pero el sesgo tiene una forma de volver a introducirse a través de correlaciones con otras variables que usa el algoritmo, como los apellidos combinados con los datos del censo geográfico. El sesgo en contra de los grupos a menudo se puede abordar a través del diseño inteligente de algoritmos, dijo Dwork, pero garantizar la imparcialidad con los individuos es mucho más difícil debido a una característica fundamental de la toma de decisiones algorítmicas.

Cualquier decisión de este tipo dibuja una línea de manera efectiva, y como señaló Dwork, siempre habrá dos personas de diferentes grupos cerca de la línea, una a cada lado, que son muy similares entre sí en casi todos los aspectos. Y sin embargo, solo uno obtendrá un préstamo. En algunos casos, corregir el sesgo a través del diseño del sistema puede ser un enfoque insuficiente.

Considere un sistema de contratación diseñado por el profesor de informática McKay Yiling Chen y la estudiante graduada Lily Hu”15 para eliminar el sesgo de contratación contra los afroamericanos, un grupo históricamente desfavorecido. Como lo expresa Hu, “los algoritmos, que son herramientas puramente impulsadas por la optimización, pueden heredar, internalizar, reproducir y exacerbar las desigualdades existentes. Supongamos que tenemos una disparidad en el mercado laboral que persiste sin ningún tipo de ayuda para el aprendizaje automático, y luego viene el aprendizaje automático y aprende a volver a inscribir esas desigualdades “. Su solución, que utiliza herramientas de la economía y la sociología para comprender las disparidades. en el mercado laboral, lleva el pensamiento sobre la equidad algorítmica más allá de la informática a una visión interdisciplinaria del problema en todo el sistema.

Chen trabaja en informática social, un área de la ciencia de datos que enfatiza el efecto del comportamiento humano en las entradas de algoritmos. Debido a que los humanos son lo suficientemente “interesados ​​en sí mismos, independientes, propensos a errores y no predecibles” para permitir el diseño de un algoritmo que garantice la imparcialidad en cada situación, ella comenzó a pensar en cómo sesgar los datos de entrenamiento, la realidad. Entradas de información mundial que un algoritmo de contratación utilizaría. Ella y Hu se enfocaron en el problema de implementar una acción afirmativa en la contratación.

Un remedio directo para contrarrestar la desventaja histórica que enfrenta un grupo minoritario sería, simplemente, favorecer a ese grupo en las decisiones de empleo, en igualdad de condiciones. (Esto mismo podría considerarse injusto para el grupo mayoritario, pero aún así podría considerarse aceptable hasta que se logre la equidad en la contratación).

Pero Chen y Hu entonces consideraron el elemento humano. Supongamos que muchos de los miembros del grupo minoritario no van a la universidad, razonando que “es caro, y debido a la discriminación, incluso si obtengo un título, las posibilidades de que consiga un empleo siguen siendo bajas”.

Los empleadores, mientras tanto, pueden creer que “las personas de los grupos minoritarios tienen menos educación y no tienen un buen desempeño, porque no se esfuerzan mucho”. El punto que señalan Chen y Hu es que aunque la decisión de un miembro del grupo minoritario de no asistir a la universidad es racional sobre la injusticia histórica existente, esa decisión refuerza las ideas preconcebidas de los empleadores sobre el grupo en su conjunto. Este patrón de efectos de retroalimentación no solo es difícil de romper, es precisamente el tipo de patrón de datos que reforzará un algoritmo, mirando las contrataciones pasadas y asociándolas con títulos universitarios.

La solución que Chen y Hu proponen no se basa solo en las matemáticas: en cambio, es la ingeniería social la que usa un algoritmo para cambiar la verdad fundamental. Y representa un reconocimiento de lo difícil que puede ser contrarrestar el sesgo en los datos.

Lo que proponen los investigadores es la creación de un mercado laboral temporal. Piense en ello, dice Chen, como una pasantía en la que cada candidato a un puesto de trabajo debe participar durante dos años antes de ser contratado para la fuerza laboral permanente. El ingreso al grupo de pasantías estaría sujeto a una simple “restricción de imparcialidad”, un algoritmo que requeriría que los empleadores elijan pasantes de grupos minoritarios y mayoritarios en números representativos. Luego, al final de la pasantía, la contratación del grupo de pasantes se basaría únicamente en los datos de rendimiento, sin tener en cuenta la membresía del grupo. Debido a que los grupos son igualmente talentosos a nivel de la población, explica Chen, los dos grupos finalmente alcanzan la paridad.

 

“Lo que este artículo está tratando de contrarrestar”, explica Hu, “es la percepción, aún dominante en la comunidad de aprendizaje automático / IA, de que todo es fundamentalmente un problema de optimización, un problema de predicción o un problema de clasificación. Y cuando lo haga, si lo trata de una manera estándar de aprendizaje automático, terminará reforzando esas desigualdades “.

Hu fue el compañero de enseñanza para el curso de Grosz en inteligencia artificial y ética (co-enseñado con el compañero de filosofía Jeffrey Behrends) el año pasado. Ella dice que las personas deben entender que el acto de “construir tecnologías, y la forma en que las implementamos, son acciones políticas en sí mismas. No existen en el vacío, como herramientas instrumentales que a veces son buenas, a veces son malas. Creo que esa es una forma particularmente ingenua de pensar en la tecnología “.

Si la tecnología está destinada a proporcionar reconocimiento facial para identificar a los sospechosos de delitos a partir de secuencias de video o educación adaptada a diferentes estilos de aprendizaje o consejos médicos, Hu enfatiza: “Lo que tenemos que pensar es cómo las tecnologías incorporan valores y supuestos particulares. Exponer eso es un primer paso: darse cuenta de que no es el caso de que haya algunas preguntas éticas y algunas preguntas no éticas, pero realmente que, en todo lo que diseñamos … siempre habrá preguntas normativas a la mano, cada paso de el camino “.

Integrar esa conciencia en los cursos existentes es fundamental para garantizar que” el mundo que estamos construyendo, con tecnología ubicua, sea un mundo en el que queremos vivir “.

JONATHAN SHAW

http://harvardmagazine.com/2019/01/artificial-intelligence-limitations

No comments yet.

Leave a comment

Your email address will not be published.