Mantener el desarrollo de la IA responsable

//Mantener el desarrollo de la IA responsable
etica y algoritmos

El concepto de inteligencia artificial (IA) tiende a evocar imágenes de computadoras y robots conscientes de sí mismos (Knight Rider, Wall-E, Terminator),

pero en su mayor parte, esta tecnología está, por ahora, restringida a la ficción y el cine. En ese momento, sin embargo, la inteligencia artificial ya se ha incorporado a la vida cotidiana, desempeñando un papel en todo, desde las compras en línea hasta las sentencias penales.

Por el contrario, el desarrollo de la política de IA se ha quedado muy por detrás del desarrollo de la IA. Sin regulación ni transparencia, los algoritmos patentados se utilizan para tomar decisiones importantes que alteran la vida sin supervisión independiente.

Si bien la falta de transparencia y regulación puede no ser un gran problema cuando se trata de un algoritmo que adivina incorrectamente qué película querría ver a continuación, puede convertirse en un problema importante en un mundo donde la tecnología de IA se usa en todas partes.

IA invisible

La capacidad de integrar fácilmente la tecnología de IA en toda la economía ha llevado al desarrollo de lo que yo llamo “IA invisible”. A diferencia de los autos que conducen por sí mismos o los asistentes personales automatizados, los sistemas que usan la IA invisible no anuncian ese hecho; en cambio, los algoritmos se utilizan en segundo plano para predecir los resultados y tomar decisiones. Si bien los algoritmos específicos pueden diferir, se puede pensar en todos los sistemas de IA de una manera similar: se utiliza una gran cantidad de datos para entrenar a los AI a reconocer patrones, que luego se usan para clasificar los nuevos datos. Por ejemplo, una IA podría entrenarse para diferenciar entre diferentes frutas dándole miles de imágenes etiquetadas de manzanas y bananas. Luego, cuando se le presenta una imagen sin etiquetar, el algoritmo lo comparará con las imágenes que ha visto antes y determinará si la nueva imagen se parece más a una manzana o un plátano. Si bien esto puede parecer un ejemplo simple, el principio general subraya la capacidad de los programas de inteligencia artificial para realizar tareas complejas como el reconocimiento facial o la comprensión del lenguaje.

Un uso común de la IA invisible es la orientación de los precios, donde se muestran diferentes precios a diferentes consumidores para el mismo producto. Un estudio realizado en la Northeastern University en 2014 encontró que algunos sitios de reservas de hoteles y viajes utilizan un algoritmo que determina qué cobrar a los consumidores en función de sus datos personales, como mostrar precios más bajos para los usuarios que navegan con un dispositivo móvil o precios más altos para los consumidores que Alquilamos habitaciones de hotel más caras en el pasado. Si bien el estudio mostró que la orientación de los precios se limitaba generalmente a un pequeño número de productos, la inteligencia artificial invisible también se puede usar para mostrar opciones en diferentes pedidos según los datos de los clientes, lo que puede afectar dramáticamente los precios, ya que las personas generalmente elegirán la primera o la segunda opción. Ellos ven que se ajusta a sus criterios de compra.

Es posible considerar que la dirección de los precios no es diferente de un comerciante que cobra precios más altos a un cliente que tiende a gastar mucho dinero, tal vez no ético, pero no ilegal. Sin embargo, en este ejemplo, la IA invisible le permite al comerciante metafórico cobrarle en función de la cantidad de dinero que gastó en otro lugar o los lugares en los que le gustaría pasar el rato.

El problema de la no neutralidad se ve agravado por la opacidad del aprendizaje automático y la IA: a menudo es difícil o imposible saber por qué un algoritmo ha tomado una decisión. Ciertos algoritmos actúan como una “caja negra” donde es imposible determinar cómo se produjo la producción, mientras que los detalles de otros algoritmos son considerados secretos comerciales de propiedad de las compañías privadas que desarrollan y comercializan sistemas de inteligencia artificial. Por lo tanto, a menudo nos encontramos en situaciones en las que ni la persona que usa el algoritmo ni la persona que está siendo categorizada por el algoritmo puede explicar por qué se hacen ciertas determinaciones.

Un reclamo común entre las compañías que utilizan la inteligencia artificial es que los algoritmos son actores neutrales que toman decisiones de manera imparcial, a diferencia de los humanos afectados por sus prejuicios. Sin embargo, como los algoritmos de aprendizaje automático suelen estar capacitados para tomar decisiones basadas en datos pasados, la aplicación de la IA invisible puede reforzar las desigualdades existentes.

Considere el mercado laboral, donde los gerentes de contratación a menudo confían en algoritmos para identificar posibles candidatos entre un amplio grupo de solicitantes. Varios estudios han demostrado que cuando se presentan dos solicitantes con currículos idénticos, las personas los seleccionarán preferentemente con nombres que suenan en blanco sobre aquellos con nombres que suenan en negro. Un algoritmo entrenado con tales datos podría aprender a priorizar a los solicitantes con nombres que suenan en blanco sin que nunca se les indique explícitamente que lo hagan; y por lo tanto, los juicios producidos por este algoritmo serían considerados imparciales cuando no son nada.

Un uso particularmente peligroso de la IA invisible se encuentra en el sistema de justicia penal, donde las decisiones a menudo cambian la vida. Por ejemplo, después de que una persona es condenada por un delito, un juez tradicionalmente determina la duración de la sentencia basándose en los hechos del caso y la probabilidad de reincidencia. En algunos estados, los jueces confían en las evaluaciones de riesgo que producen los algoritmos para determinar si una persona determinada es de bajo riesgo o de alto riesgo para continuar cometiendo delitos. Los defensores argumentan que los algoritmos que utilizan una combinación de factores, como la naturaleza del delito, los registros de delitos anteriores, la historia personal, presentan un método más justo para determinar la probabilidad de comportamiento criminal futuro. A primera vista, esto parece ser razonable, especialmente dada la larga historia de disparidad racial en el sistema de justicia.

El año pasado, los reporteros de ProPublica utilizaron los registros judiciales en Florida para examinar la precisión de uno de estos sistemas, COMPAS (perfiles de gestión de delincuentes correccionales para sanciones alternativas) y encontraron que casi el 40% de las personas que se determinaron que tienen un alto riesgo de reincidencia no lo hicieron. hacerlo, mientras que otros que fueron categorizados como de bajo riesgo continuaron cometiendo otros delitos. De hecho, era más probable que el algoritmo clasificara erróneamente a los acusados ​​blancos como de bajo riesgo, mientras que los acusados ​​negros a menudo se etiquetaban incorrectamente como de alto riesgo. Aunque la corporación que produce COMPAS no estaba de acuerdo con este análisis, no estaba dispuesta a revelar sus métodos o explicar cómo el algoritmo tenía en cuenta diferentes factores cuando genera puntajes de riesgo.

El debate correcto

Las discusiones populares sobre temas éticos relacionados con la IA a menudo se centran en el potencial de las máquinas totalmente conscientes y en cómo garantizar que la AI valore adecuadamente la vida humana. Líderes de tecnología como Elon Musk (Tesla) y Mark Zuckerberg (Facebook) se han unido a fundaciones y han participado en debates públicos sobre cómo evitar la creación de una IA autoconsciente que podría ser peligrosa para la vida humana; sin embargo, ha habido poco debate sobre el uso ético de la IA en su forma actual. Compañías como Google y Amazon han usado enormes cantidades de datos personales para desarrollar tecnología avanzada de aprendizaje automático con poca supervisión o aportes del público, mientras que los gobiernos locales, estatales y federales han insertado silenciosamente AI en todos los tipos de procesos de toma de decisiones. Si bien la Unión Europea ha desarrollado recientemente normas para regular la transferencia y el uso de datos personales, no existe una legislación comparable en los Estados Unidos.

La IA se usa a menudo como un sustituto del juicio humano y la moral a pesar de ser totalmente inadecuada para este propósito. Imagine a una persona conduciendo un automóvil por una carretera que se da cuenta de que una tortuga cruza la carretera en el último minuto. Dependiendo del criterio personal, algunas personas pueden reducir la velocidad y permitir que pase el animal, mientras que otras pueden evitarlo y seguir manejando. Ahora, considere el mismo escenario con un auto de auto-conducción. La IA que controla el automóvil manejará esta situación basándose en cómo se le enseñó a valorar diferentes objetivos: ¿es más importante completar el viaje a tiempo que asegurarse de que el animal no sufra daños? ¿Y cómo se llega a esa decisión? Estas son cuestiones éticas importantes; sin embargo, la IA es una tecnología esencialmente no regulada.

Las nuevas políticas no resolverán todos estos desafíos, pero pueden desempeñar un papel importante para garantizar que los beneficios de la IA se distribuyan equitativamente al tiempo que reconocen sus limitaciones. Un paso inicial en esta dirección podría incluir las siguientes sugerencias:

  • Requieren transparencia y evaluación de algoritmos de IA. Comprender cómo un algoritmo toma sus decisiones es fundamental para determinar si está afectado por un sesgo u otros factores; además, los algoritmos deben probarse con regularidad para asegurarse de que todavía funcionan correctamente.
  • Asegúrese de que los objetivos de la tecnología de AI estén alineados con las normas de la sociedad, como asegurarse de que los sistemas de AI utilizados en la justicia penal estén optimizados para dar beneficio de la duda a los inocentes.
  • Desarrollar políticas y regulaciones sobre cómo los datos personales pueden ser utilizados por el gobierno y las empresas. El control de cómo los gobiernos, las empresas y las personas pueden usar datos “grandes” protegerá contra la comercialización no deseada de su información personal. Las personas deben tener derecho a saber cómo sus actividades, tanto dentro como fuera de Internet, están siendo utilizadas por los sistemas de AI.

Si bien sus limitaciones son significativas, la inteligencia artificial tiene una gran promesa de promover los mejores intereses de la humanidad si estas tecnologías se pueden integrar de manera justa y equitativa.

No comments yet.

Leave a comment

Your email address will not be published.