La ética al frente de las conversaciones de inteligencia artificial.

//La ética al frente de las conversaciones de inteligencia artificial.

A medida que se acercaba el final de 2018, muchas tecnologías de inteligencia artificial,

como pruebas visuales, chatbots y reconocimiento de idiomas, habían madurado hasta el punto de la ubicuidad.

Dos años desde el “Año de la IA” de SD Times, las conversaciones sobre la IA y el aprendizaje automático se han alejado más y más de las posibles aplicaciones y los sorprendentes nuevos usos de la tecnología. Ahora, el tema en la mente de todos, desde los desarrolladores y los analistas, hasta el lego que no está seguro de cuánto confía en los autos que conducen por sí mismos, es la ética de la IA: donde es ético aplicar la IA, si el sesgo de sus creadores puede arruinar sus capacidades de toma de decisiones y si las personas que son desplazadas de sus carreras por la automatización tendrán una alternativa.

En junio, después de retirarse de un contrato militar de AI encargado por el Pentágono después de protestar desde dentro, Google estableció principios específicos para lo que consideran un desarrollo ético de AI, y otros han seguido su ejemplo. En octubre, el MIT prometió $ 1,000 millones para el avance de la IA al llevar la informática y la IA a todos los campos de estudio, contratando personal y creando oportunidades de educación e investigación en el campo, además de educar a los estudiantes sobre las aplicaciones responsables y éticas de la IA.

En octubre, el MIT prometió $ 1,000 millones para el avance de la IA al llevar la informática y la IA a todos los campos de estudio, contratando personal y creando oportunidades de educación e investigación en el campo, además de educar a los estudiantes sobre las aplicaciones responsables y éticas de la IA.

En el anuncio, Stephen A. Schwarzman, CEO de Blackstone y uno de los patrocinadores de la iniciativa de MIT, dijo: “Nos enfrentamos a preguntas fundamentales sobre cómo garantizar que los avances tecnológicos beneficien a todos, especialmente a los más vulnerables a los cambios radicales que inevitablemente AI traerá a La naturaleza de la fuerza laboral “.

Las “cosas autónomas” se ubican en el número uno en la lista de Gartner de sus 10 principales predicciones tecnológicas para 2019, también desde octubre. Dado que las capacidades de la IA solo aumentan (DARPA anunció en octubre que están trabajando para mejorar el “sentido común” de la tecnología de aprendizaje automático), muchos consideran que ya es hora de que los trabajadores que pueden perder sus puestos para avanzar en la AI sean una consideración de Las empresas productoras de la tecnología y no solo una cuestión filosófica.

Google está abordando esto con su financiamiento, lanzado en julio, de $ 50 millones a través de su sucursal Google.org para organizaciones sin fines de lucro que se están preparando para ese escenario. Esto incluye capacitación, educación y trabajo en red para ayudar a las personas a adquirir las habilidades que dice que se requerirán en una futura fuerza laboral, y que dicen que no son tan comunes como deberían serlo, así como apoyo para los trabajadores que desempeñan funciones poco remuneradas Eso podría hacerse obsoleto.

Cuando DARPA anunció en agosto que estaría invirtiendo en explorar la ‘tercera ola’ de investigación de inteligencia artificial, el departamento dijo que el enfoque sería hacer que la IA sea más capaz de contextualizar los detalles y hacer inferencias a partir de muchos menos puntos de datos al reconocer cómo El propio modelo de aprendizaje está estructurado. El ejemplo que DARPA dio fue en el reconocimiento de imagen de un gato, que en lugar de confiar en miles y miles de imágenes de gatos para elegir a otro gato, como en los datos de entrenamiento y la “segunda ola” de AI, centrada en el ejemplo, una IA ser capaz de distinguir al gato al notar que la imagen tenía pelaje, bigotes, garras, etc.

El MIT-IBM Watson AI Lab anunció proyectos similares en desarrollo en abril que se centraron en la capacitación de AI para reconocer la acción dinámica en video. Si bien esto aún dependía de un millón de clips de 3 segundos, que según los investigadores demostraron ser extremadamente difíciles de corregir al tratar de explicar el sesgo, el objetivo final era entrenar a una IA para construir analogías e interpretar acciones y dinámicas.

Gartner se enfoca en la ética digital y la privacidad en el número nueve de su lista de predicciones para 2019, y a medida que la industria avanza hacia esta nueva ola, se prevé que las ramificaciones éticas de las tecnologías emergentes comiencen a ser consideradas antes y antes. “Pasar de la privacidad a la ética mueve la conversación más allá de ‘cumplimos’ hacia ‘estamos haciendo lo correcto’, escribió Gartner.

 

No comments yet.

Leave a comment

Your email address will not be published.