4 maneras en que la educación y la ética en IA impactarán a la sociedad este 2019

//4 maneras en que la educación y la ética en IA impactarán a la sociedad este 2019
etica IA

En 2018, fuimos testigos de un choque de titanes

cuando el gobierno y las empresas tecnológicas chocaron por cuestiones de privacidad relacionadas con la recopilación, el desecho y el uso de datos personales. Desde los escándalos de GDPR a Facebook, muchos CEO de tecnología defendían el big data, su uso y cómo protegen al público.

Mientras tanto, el público se asombró de los avances tecnológicos como el robot Atlas de Boston Dynamic que está haciendo parkour, mientras que al mismo tiempo se indigna ante la idea de que nuestros datos ya no sean nuestros y que Alexa escuche todas nuestras conversaciones. Para bien o para mal, las tecnologías avanzadas como la inteligencia artificial han capturado la imaginación del público, los responsables políticos y las grandes empresas.

Vemos cuatro tendencias de uso y ética de la IA establecidas para interrumpir las aulas y las salas de conferencias. La educación centrada en un aprendizaje más profundo y en la comprensión de esta tecnología transformadora será fundamental para promover el debate y garantizar un progreso positivo que proteja el bien social.

1. Las empresas enfrentarán una mayor presión sobre el uso de los datos en los servicios integrados de AI.

A medida que el público aprenda más sobre cómo y dónde se inserta la IA en sus vidas personales, se interesarán más y más en cómo y dónde usarán esas plataformas. Esto creará una mayor demanda de transparencia en el uso de datos.

Ya hemos visto que este cambio comienza en gran medida con la política europea de inclusión voluntaria de GDPR, y hemos visto cómo un público indignado crea conciencia corporativa al explicar cómo y dónde se almacenan y utilizan los datos de los clientes. Según lo investigado por Daniel Solove, si las personas tienen una objeción a ciertos usos de los datos, quieren tener derecho a decir que no. Pero la persona promedio no quiere microgestionar su privacidad.

Las empresas pueden evitar los problemas compartiendo más información sobre su inteligencia artificial, informando a los consumidores sobre los servicios que ofrecen y cómo se utiliza la inteligencia artificial y dando a las personas la opción de eliminar sus datos. Estas preocupaciones también brindan a los educadores la oportunidad de discutir cómo los sistemas de inteligencia artificial funcionan con sus estudiantes.

2. La preocupación pública llevará a las regulaciones de la IA Pero debemos entender esta tecnología también.

En 2018, la Fundación Nacional de Ciencia invirtió $ 100 millones en investigación de IA, con un apoyo especial en 2019 para desarrollar principios para una IA segura, robusta y confiable; abordar cuestiones de sesgo, imparcialidad y transparencia de la inteligencia algorítmica; desarrollando una comprensión más profunda de la interacción humano-IA y la educación del usuario; y desarrollar ideas sobre las influencias de la IA en las personas y la sociedad.

Esta inversión fue empequeñecida por DARPA, una agencia del Departamento de Defensa, y su inversión de más de $ 2 mil millones en programas nuevos y existentes bajo la campaña “AI Next”. Un área clave de la campaña incluye ser pionero en la próxima generación de algoritmos y aplicaciones de inteligencia artificial, como la “explicabilidad” y el razonamiento de sentido común.

Las iniciativas financiadas con fondos federales, así como los esfuerzos corporativos (como la herramienta “What If” de Google) conducirán al aumento de la IA explicable y la IA interpretable, por lo que la IA en realidad explica la lógica detrás de su toma de decisiones a los humanos. Pero el siguiente paso a partir de ahí sería que los reguladores de la IA y los responsables de la formulación de políticas aprendan cómo funcionan realmente estas tecnologías. Este es un paso que se pasa por alto en este momento que Richard Danzig, ex Secretario de la Marina de los EE. UU. Nos aconseja que consideremos, ya que creamos sistemas de “humanos en el circuito”, que requieren que las personas firmen decisiones importantes de la IA.

3. Más empresas harán de la IA una iniciativa estratégica en responsabilidad social corporativa.

Recientemente, las grandes organizaciones tecnológicas, en medio de prejuicios y preocupaciones de privacidad, comenzaron a lanzar iniciativas para informar y educar sobre los beneficios de la IA. Google invirtió $ 25 millones en IA for Good y Microsoft agregó una IA para Acción Humanitaria a su compromiso anterior. Si bien estos son pasos positivos, la industria tecnológica continúa teniendo un problema de diversidad. El problema está muy arraigado, y resolverlo requerirá que la industria se centre pronto en la tubería, es decir, con los niños. Más corporaciones reconocerán esto y comenzarán a invertir más dinero y tiempo para alentar a los jóvenes, especialmente a las niñas y las minorías, a aprender sobre la IA y su potencial para el bien.

4. La financiación para la alfabetización en IA y la educación pública se disparará.

Ryan Calo de la Universidad de Washington explica que importa cómo hablamos sobre tecnologías que no entendemos completamente. Los ciclos de noticias sobre robots asesinos y las conversaciones unilaterales sobre la sustitución de los humanos por parte de la IA en el trabajo han sido alentadores y han despertado el temor durante años.

Este año veremos un mayor esfuerzo para reequilibrar el discurso público comenzando y llegando a nosotros a través de los medios de comunicación. Iniciativas como la IA y Open News Challenge nos llegarán a través de programas educativos diseñados para los medios de comunicación sobre cómo funciona la IA. Los cursos de IA a través de universidades tradicionales como MIT, junto con los cursos en línea a través de organizaciones como Coursera, apuntarán a preparar a más personas para los trabajos en IA. Y el plan de estudios simplificado para audiencias legas de apenas ocho años, dirigido por organizaciones sin fines de lucro, ayudará a las comunidades, así como a los educadores primarios y secundarios a enseñar lo básico para fomentar la curiosidad y fomentar el aprendizaje a lo largo de la vida a medida que se expanden las industrias y tecnologías que utilizan la IA.

Para educadores y desarrolladores de planes de estudio, hacer referencia a los enfoques adoptados para explicar el cambio climático ayudará a determinar cómo hablar sobre la IA y a explicar lo que está en juego con nuestras opciones retóricas.

Este año, las implicaciones sociales más amplias de la IA llevarán al lanzamiento y al crecimiento de muchos esfuerzos en la educación, las corporaciones y el gobierno. Estas iniciativas se traducirán en planes de estudio y programas de capacitación de la IA, campañas de concientización pública y mayores regulaciones y demandas de responsabilidad por parte de las compañías e investigadores de la IA. Espere que el público conozca la IA, sus inquietudes éticas y las oportunidades que tiene para hacer el bien para ser lo más importante.

No comments yet.

Leave a comment

Your email address will not be published.