Historia de la Inteligencia Artificial

//Historia de la Inteligencia Artificial
historia de la IA

Conoce un poco de donde viene todo lo referente a IA

¿Pueden las máquinas pensar?

En la primera mitad del siglo XX, la ciencia ficción familiarizó al mundo con el concepto de robots artificialmente inteligentes. Comenzó con el hombre de hojalata “sin corazón” del Mago de Oz y continuó con el robot humanoide que se hizo pasar por María en Metrópolis.

Para la década de 1950, teníamos una generación de científicos, matemáticos y filósofos con el concepto de inteligencia artificial (o IA) asimilados culturalmente en sus mentes. Una de esas personas fue Alan Turing, un joven científico británico que exploró la posibilidad matemática de la inteligencia artificial. Turing sugirió que los humanos usen la información disponible y la razón para resolver problemas y tomar decisiones, entonces, ¿por qué las máquinas no pueden hacer lo mismo? Este fue el marco lógico de su artículo de 1950, Computing Machinery and Intelligence, en el que habló sobre cómo construir máquinas inteligentes y cómo probar su inteligencia.

Haciendo posible la búsqueda

¿Qué impidió que Turing llegara al objetivo en ese momento? Primero, las computadoras necesitaban cambiar fundamentalmente. Antes de 1949, las computadoras carecían de un requisito previo clave para la inteligencia: no podían almacenar comandos, solo ejecutarlos.

En otras palabras, a las computadoras se les podría decir qué hacer pero no podrían recordar lo que hicieron. Segundo, la computación era extremadamente costosa. A principios de la década de 1950, el costo del arrendamiento de una computadora ascendía a $ 200,000 al mes. Sólo las universidades de prestigio y las grandes empresas de tecnología podían permitirse el lujo de realizar estas actividades en aguas inexploradas. Se necesitaba una prueba de concepto, así como la defensa de personas de alto perfil para persuadir a las fuentes de financiamiento que valía la pena buscar en la inteligencia mecánica.

La conferencia que lo empezó todo

 

Cinco años después, la prueba de concepto se inicializó a través de Allen Newell, Cliff Shaw y Herbert Simon, “el teórico de la lógica”. El teórico de la lógica fue un programa diseñado para imitar las habilidades de resolución de problemas de un ser humano y fue financiado por la Corporación de Investigación y Desarrollo (RAND). Muchos lo consideran el primer programa de inteligencia artificial y se presentó en el Proyecto de Investigación de Verano sobre Inteligencia Artificial de Dartmouth (DSRPAI) organizado por John McCarthy y Marvin Minsky en 1956.

En esta conferencia histórica, McCarthy, imaginando un gran esfuerzo de colaboración, junto a los mejores investigadores de diversos campos para una discusión abierta sobre inteligencia artificial, el término que él acuñó en el evento. Lamentablemente, la conferencia no cumplió con las expectativas de McCarthy; las personas iban y venían como les gustaba, y no se acordaban los métodos estándar para el campo. A pesar de esto, todos se alinearon de corazón con el sentimiento de que la IA era alcanzable. La importancia de este evento no puede ser socavada, ya que catalizó los próximos veinte años de investigación de IA.

 

La Montaña Rusa  de oportunidades y contratiempos

De 1957 a 1974, la IA floreció. Las computadoras podrían almacenar más información y se hicieron más rápidas, baratas y más accesibles.

Los algoritmos de aprendizaje automático también mejoraron y la gente mejoró al saber qué algoritmo aplicar a su problema. Las demostraciones tempranas, como el solucionador de problemas general de Newell y Simon y ELIZA de Joseph Weizenbaum, mostraron una promesa hacia los objetivos de resolución de problemas y la interpretación del lenguaje hablado, respectivamente. Estos éxitos, así como la defensa de investigadores líderes (es decir, los asistentes a la DSRPAI) convencieron a agencias gubernamentales como la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) para financiar la investigación de IA en varias instituciones.

El gobierno estaba particularmente interesado en una máquina que pudiera transcribir y traducir el lenguaje hablado, así como el procesamiento de datos de alto rendimiento. El optimismo era alto y las expectativas aún más altas. En 1970, Marvin Minsky dijo a la revista Life, “de tres a ocho años tendremos una máquina con la inteligencia general de un ser humano promedio”. Sin embargo, aunque la prueba básica de los principios estaba allí, todavía quedaba un largo camino por recorrer. los objetivos finales del procesamiento del lenguaje natural, el pensamiento abstracto y el auto-reconocimiento podrían lograrse.

La ruptura de la niebla inicial de la IA reveló una montaña de obstáculos. La más grande fue la falta de poder de cómputo para hacer algo sustancial: las computadoras simplemente no pudieron almacenar suficiente información ni procesarla lo suficientemente rápido. Para comunicarse, por ejemplo, uno necesita conocer los significados de muchas palabras y comprenderlas en muchas combinaciones.

Hans Moravec, un estudiante de doctorado de McCarthy en ese momento, afirmó que “las computadoras aún eran millones de veces demasiado débiles para exhibir inteligencia”. A medida que disminuía la paciencia, también lo hicieron los fondos, y la investigación llegó a un ritmo lento durante diez años.

En la década de 1980, la inteligencia artificial fue reavivada por dos fuentes: una expansión del kit de herramientas algorítmicas y un aumento de fondos.

John Hopfield y David Rumelhart popularizaron las técnicas de “aprendizaje profundo” que permitieron a las computadoras aprender usando la experiencia. Por otro lado, Edward Feigenbaum introdujo sistemas expertos que imitaban el proceso de toma de decisiones de un experto humano. El programa le preguntaría a un experto en un campo cómo responder en una situación determinada, y una vez que esto se aprendió para prácticamente todas las situaciones, los no expertos podrían recibir asesoramiento de ese programa.

Los sistemas expertos fueron ampliamente utilizados en las industrias. El gobierno japonés financió en gran medida los sistemas expertos y otros esfuerzos relacionados con la inteligencia artificial como parte de su Proyecto de Computación de Quinta Generación (FGCP).

Entre 1982 y 1990, invirtieron $ 400 millones de dólares con el objetivo de revolucionar el procesamiento de computadoras, implementar la programación lógica y mejorar la inteligencia artificial. Desafortunadamente, la mayoría de los ambiciosos objetivos no se cumplieron. Sin embargo, se podría argumentar que los efectos indirectos del FGCP inspiraron a una generación joven y talentosa de ingenieros y científicos. En cualquier caso, la financiación del FGCP cesó, y la inteligencia artificial se salió de la luz pública.

Irónicamente, en ausencia de fondos del gobierno y exageraciones públicas, la IA prosperó. Durante los años 90 y 2000, se lograron muchos de los objetivos históricos de la inteligencia artificial. En 1997, el gran campeón mundial de ajedrez y gran maestro Gary Kasparov fue derrotado por el Deep Blue de IBM, un programa de computadora de ajedrez. Este partido altamente publicitado fue la primera vez que un campeón mundial de ajedrez reinó en una computadora y sirvió como un gran paso hacia un programa de toma de decisiones artificialmente inteligente.

En el mismo año, se implementó en Windows el software de reconocimiento de voz desarrollado por Dragon Systems. Este fue otro gran paso adelante pero en la dirección del esfuerzo de interpretación de la lengua hablada. Parecía que no había un problema que las máquinas no pudieran manejar. Incluso la emoción humana era un juego justo como lo demuestra Kismet, un robot desarrollado por Cynthia Breazeal que podía reconocer y mostrar emociones.

 

El tiempo cura todas las heridas

No nos hemos vuelto más inteligentes acerca de cómo estamos codificando la inteligencia artificial, así que, ¿qué cambió? Resulta que el límite fundamental de almacenamiento de computadora que nos estaba frenando hace 30 años ya no era un problema. , que estima que la memoria y la velocidad de las computadoras se duplican cada año, finalmente se han puesto al día y, en muchos casos, han superado nuestras necesidades. Así es precisamente cómo Deep Blue pudo derrotar a Gary Kasparov en 1997, y cómo Alpha Go de Google pudo derrotar al campeón de Chinese Go, Kie Je, hace solo unos meses. Ofrece una pequeña explicación a la montaña rusa de la investigación de la IA; saturamos las capacidades de la IA al nivel de nuestra potencia computacional actual (almacenamiento en la computadora y velocidad de procesamiento), y luego esperamos que la Ley de Moore vuelva a ponerse al día.

La inteligencia artificial está en todas partes.

Ahora vivimos en la era del “big data”, una era en la que tenemos la capacidad de recopilar grandes sumas de información demasiado complicadas para que una persona las procese. La aplicación de inteligencia artificial en este sentido ya ha sido bastante fructífera en varias industrias como la tecnología, la banca, el marketing y el entretenimiento. Hemos visto que incluso si los algoritmos no mejoran mucho, el big data y la computación masiva simplemente permiten que la inteligencia artificial aprenda a través de la fuerza bruta. Puede haber evidencia de que la ley de Moore se está desacelerando un poco, pero el aumento en los datos ciertamente no ha perdido impulso. Los avances en ciencias de la computación, matemáticas o neurociencia sirven como potenciales salidas a través del techo de la Ley de Moore.

 

El futuro

Entonces, ¿qué nos espera para el futuro? En el futuro inmediato, el lenguaje de IA parece ser lo próximo. De hecho, ya está en marcha. No recuerdo la última vez que llamé a una empresa y hablé directamente con un humano. En estos días, las máquinas incluso me están llamando! Uno podría imaginarse interactuando con un sistema experto en una conversación fluida, o conversando en dos idiomas diferentes en tiempo real. También podemos esperar ver automóviles sin conductor en la carretera en los próximos veinte años (y eso es conservador).

A largo plazo, el objetivo es la inteligencia general, que es una máquina que supera las capacidades cognitivas humanas en todas las tareas. Esto está en la línea del robot sensible que estamos acostumbrados a ver en las películas. Para mí, parece inconcebible que esto se logre en los próximos 50 años. Incluso si la capacidad está ahí, éticamente serviría como una fuerte barrera contra la fructificación. Cuando llegue ese momento (pero mejor aún antes de que llegue el momento), tendremos que tener una conversación seria sobre la política de la máquina y la ética (irónicamente, ambos son sujetos fundamentalmente humanos), pero por ahora, permitiremos que la IA mejore constantemente y se vuelva loca. en sociedad.

Rockwell Anyoha es un estudiante graduado en el departamento de biología molecular con experiencia en física y genética. Su proyecto actual emplea el uso del aprendizaje automático para modelar el comportamiento animal. En su tiempo libre, a Rockwell le gusta jugar fútbol y debatir temas mundanos.

No comments yet.

Leave a comment

Your email address will not be published.