La ética, la inteligencia artificial y el sector social.

//La ética, la inteligencia artificial y el sector social.
etica a nivel social

Los sistemas de inteligencia artificial tienen un enorme potencial para el bien, pero son tan buenos como los datos con los que están capacitados.

A medida que el aprendizaje automático se expande en todas las áreas de nuestras vidas, encontrando usos en el cuidado de la salud, la conducción autónoma y la aplicación de la ley (por nombrar solo algunas), cualquier sesgo podría no solo ser inconveniente, sino que podría significar más daño que bien.

Datos sesgados, resultados sesgados

El problema del sesgo de la IA no es solo teórico; después de que la experiencia personal con los sistemas reconociera los rostros de sus colegas más blancos que la suya, una piel mas oscura, la investigadora del MIT, Joy Buolamwini, comenzó un proyecto para averiguar si el software tenía problemas con sus características particulares o si había un problema más amplio.

Buolamwini probó sistemas de IBM, Microsoft y la compañía china Face ++, mostrándoles 1,000 caras y pidiéndoles que identifiquen a los sujetos como hombres o mujeres. Encontró que todos los sistemas eran significativamente mejores para identificar rostros masculinos que femeninos, y se desempeñaban mejor en rostros más claros que en rostros oscuros.

A medida que el reconocimiento facial se integra más en la vida diaria (por ejemplo, para aplicaciones de seguridad, diagnóstico médico y búsqueda de personas desaparecidas), las personas de piel más oscura y las mujeres se encuentran en una desventaja real.

En respuesta a esos hallazgos, los investigadores del MIT están trabajando en un algoritmo que puede “desviar” los conjuntos de datos automáticamente al encontrar sesgos ocultos y volver a comparar los datos.

En las pruebas, el algoritmo hizo que el reconocimiento facial de la IA fuera menos racista, reduciendo el “sesgo categórico” pero más del 60% sin reducir la precisión general.

Tomando responsabilidad

En Intel AI DevCon (AIDC) en Múnich, compañías de todo el mundo demostraron cómo utilizan las plataformas de aprendizaje automático de Intel para beneficiar a la sociedad, en áreas que incluyen investigación en salud y física.

Aunque Intel proporciona principalmente plataformas para el aprendizaje automático en lugar de desarrollar aplicaciones, es muy consciente de las implicaciones éticas de su trabajo y es la Alianza para la IA, una organización que tiene como objetivo desarrollar y compartir las mejores prácticas sobre la IA. Su objetivo es que la IA sea segura, confiable, justa, transparente y responsable, y debe servir a la sociedad.

Hablamos con Stephan Gillich, director de informática técnica, análisis e inteligencia artificial, y GTM para el Intel EMEA Datacenter Group entre las presentaciones en AIDC.

“Para la funcionalidad de un algoritmo de aprendizaje, necesita tener una representación precisa de los datos”, dijo Gillich. “Y si no tiene una representación amplia de esos datos, entonces su mecanismo no funcionará. Entonces, desde ese punto de vista, vemos ese problema y, desde nuestro punto de vista, independientemente de lo que podamos hacer, les decimos a las personas que deberían tener la mayor cantidad de datos imparciales que puedan tener “.

“Una vez que tienes los datos y todo, [está la cuestión de] cómo puedes mirar dentro de la caja, lo que a veces la gente ve con un mecanismo de inteligencia artificial entrenado por datos. […] ¿Cómo puedes asegurarte realmente de que un algoritmo de IA se desempeña, y tener un cierto nivel de comprensión de por qué hace lo que hace? Así que en general estamos atrasados ​​en utilizar la IA de una manera que realmente ayude a la humanidad, y una parte de eso también es la parte ética “.

IA para siempre

Intel también está trabajando con socios  para mostrar qué tan beneficioso puede ser el aprendizaje automático cuando se entrena con datos de buena calidad y se orienta cuidadosamente. Para uno de estos proyectos, se asoció con la organización ambientalista Parley for the Oceans para desarrollar un sistema basado en aviones no tripulados para evaluar la salud de las ballenas sin molestarlas.

“[Las ballenas] se pueden identificar por la casualidad”, explicó Gillich. “Es como una huella dactilar: puedes tomar fotos y luego ya no necesitas etiquetar a estas ballenas. Tienen su propia etiqueta, solo hay que reconocerla.

“Lo que solían hacer es tomar una sonda de la ballena, por lo que básicamente tenían que dispararle algo. No lo lastima, pero es difícil y también un poco molesto para la ballena. Entonces, encontraron un método para volar sobre la ballena, y cuando la ballena sopla, toman muestras de eso y luego lo analizan utilizando métodos de IA. Al igual que para el análisis de imágenes para los flukes, puedes usar IA para hacer el reconocimiento de la imagen “.

El sistema resultante, Parley SnotBot, proporciona datos en tiempo real sobre la salud de las criaturas, sin alarmarlos.

Otro proyecto especial consiste en proteger a los elefantes africanos de los cazadores furtivos. La población de elefantes africanos del bosque está actualmente en vías de ser eliminada por completo mediante la caza furtiva de marfil y carne de caza en la próxima década, pero la escala de su hábitat hace imposible que los guardaparques los protejan a todos. El Parque Nacional Serengeti, por ejemplo, tiene solo 150 guardaparques para patrullar un área aproximadamente del tamaño de Bélgica.

“Estas son áreas remotas, y no puedes tener gente en todas partes porque eso también perturbaría a la vida silvestre”, dice Gillich. “Simplemente no es posible, por lo que hemos trabajado con cámaras que pueden funcionar durante mucho tiempo por sí mismas, pero que aún así envían señales a las personas que pueden encargarse de este problema”.

Para ayudar a resolver el problema, Intel trabajó con la organización de conservación Resolvió desarrollar un sistema llamado TrailGuard, que utiliza una cámara inteligente de baja potencia lo suficientemente pequeña como para ocultarla en un arbusto.

Cuando la cámara se activa con el movimiento, la IA analiza las imágenes para identificar animales, personas y vehículos. Si una persona se encuentra en un área que normalmente solo está poblada por animales, es muy probable que sea un cazador furtivo, por lo que los encargados de los parques se alertan de la presencia de personas y vehículos inesperados.

La cantidad de ancho de banda necesaria para enviar cada fotograma capturado por las cámaras TrailGuard al cuartel general del parque o un servidor en la nube sería prohibitiva, y no sería práctico para los guardias rastrear tantas imágenes. En su lugar, una red neuronal que se ejecuta en las cámaras analiza cada cuadro en tiempo real, descarta a los que no tienen actividad (o solo a los animales) y los envía a los cuidadores del parque.

Poder para hacer el bien

El proyecto TrailGuard ha sido particularmente exitoso, ya que los encargados del parque pueden intervenir y atrapar a los cazadores furtivos antes de que los animales sufran daños, aprovechando al máximo sus recursos limitados, y aplicaciones como esta son algunas de las cosas que Gillich encuentra más emocionantes.

“Puede hacer cosas ahora mismo que habilitan aplicaciones que son fascinantes, revolucionando la forma en que se hacen las cosas”, dijo, “porque ahora tengo la capacidad de tener una gran cantidad de datos, almacenar una gran cantidad de datos y procesar muchos. de datos y recopilar muchos datos […] y luego puedo procesarlos porque tengo el poder de cómputo.

“Así que eso habilita la capacidad que no solo los programadores están haciendo programación funcional, sino que los datos en realidad están haciendo parte de la programación, y esto es lo que llamamos inteligencia artificial. Así que esta es la parte fascinante, que realmente podemos hacerlo ahora”. y puedo hacer cosas que ayuden a la humanidad de una manera mucho más eficiente que antes “.

 

No comments yet.

Leave a comment

Your email address will not be published.