Entre la población la inteligencia artificial (IA) se percibe como una tecnología completamente nueva, desarrollada durante las últimas décadas. Algo que es un mito. La historia de la IA se comienza al principio del siglo XX, en base a ideas incluso anteriores, con el desarrollo de conceptos que se han desarrollado y evolucionado durante un siglo. En esta entrada, se repasará la historia de la IA para conocer cómo ha evolucionado durante el siglo XX y principios del XXI
Tabla de contenidos
- 1 ¿Qué es la inteligencia artificial?
- 2 Historia de la inteligencia artificial
- 2.1 Primeros conceptos y antecedentes (1900-1950)
- 2.2 El nacimiento de la IA como campo de estudio (1950-1974)
- 2.3 El primer “Invierno de la IA” (1974-1980)
- 2.4 La primera edad de oro de la IA (1980-1987)
- 2.5 El segundo “Invierno de la IA” (1987-1997)
- 2.6 La resurrección de la IA (1997-2005)
- 2.7 La era moderna de la IA (2006-actualidad)
- 3 Conclusiones
¿Qué es la inteligencia artificial?
La inteligencia artificial es la rama de la informática que se centra en el desarrollo de sistemas capaces de realizar tareas que requieren inteligencia. Pudiendo competir en algunos casos con la humana. Lo que incluye la capacidad de aprender, razonar, percepción del entorno, comprensión del lenguaje natural y la toma de decisiones. Pudiéndose categorizar la IA en dos tipos principales:
- IA débil o específica: Son los sistemas diseñados para realizar una tarea específica, como reconocer imágenes o jugar al ajedrez. Esta es la IA que se dispone en la actualidad, únicamente son útiles para las tareas que han sido entrenados.
- IA fuerte o general: Estos serían sistemas con la capacidad de entender, aprender y aplicar sus conocimientos en diferentes contextos. Lo que lo haría similar a la inteligencia humana. Actualmente, no existe una IA de este tipo, ni siquiera que se le pueda acercar.
Los principales objetivos de la IA son la creación de máquinas inteligentes. Además de comprender mejor el surgimiento de la inteligencia como la humana.
Historia de la inteligencia artificial
El inicio del desarrollo de la IA moderna se puede remontar al concepto de máquina de Turing introducida por Alan Turing en los años 30 del siglo XX.
Primeros conceptos y antecedentes (1900-1950)
- 1936: El matemático británico Alan Turing publica “On Computable Numbers”, que introduce el concepto de la Máquina de Turing, una idea fundamental en la informática teórica y la inteligencia artificial.
- 1943: Warren McCulloch y Walter Pitts publican un trabajo sobre redes neuronales, sentando las bases para la creación de redes artificiales capaces de realizar cálculos similares a los del cerebro humano.
El nacimiento de la IA como campo de estudio (1950-1974)
- 1950: Alan Turing propone el “Test de Turing” en su artículo “Computing Machinery and Intelligence”, sugiriendo un criterio para determinar si una máquina puede pensar.
- 1956: Se celebra la Conferencia de Dartmouth, organizada por John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon. Este evento marca el nacimiento oficial del campo de la inteligencia artificial.
- 1958: John McCarthy desarrolla el lenguaje de programación LISP, que se convierte en el lenguaje estándar para la programación en IA.
En esta época es en la que se producen los primeros logros atribuibles a la IA:
- 1957: El programa “Logic Theorist”, desarrollado por Allen Newell y Herbert A. Simon, es capaz de demostrar teoremas matemáticos.
- 1966: Joseph Weizenbaum desarrolla ELIZA, uno de los primeros programas de procesamiento de lenguaje natural, capaz de simular una conversación con un psicoterapeuta.
- 1972: Se desarrolla el sistema experto MYCIN, diseñado para diagnosticar infecciones bacterianas y recomendar tratamientos. Este sistema utiliza reglas de conocimiento para tomar decisiones, sentando las bases para futuros sistemas expertos.
El primer “Invierno de la IA” (1974-1980)
El primer iniverno ocurrió a mediados en la década de los 70 del siglo XX, uno seis años entre le 1974 y 1980, cuando el entusiasmo inicial de la IA se enfría debido a la falta de avances significativos. Lo que se debe a la existencia de unas expectativas exageradas sobre su desarrollo, algo que se repite en mayor o menor medida en la historia de la IA después de unos avances prometedores. La complejidad en el desarrollo de sistemas realmente inteligentes y falta de capacidad de cálculo, conducen a una reducción del interés y, en consecuencia, de la financiación.
La primera edad de oro de la IA (1980-1987)
Durante esta época, la IA experimenta un auge con avances significativos y financiamiento gubernamental, especialmente en Estados Unidos.
- 1980: Surge el auge de los sistemas expertos, utilizados ampliamente en industrias como la medicina, la ingeniería y la finanza.
- 1983: Se introduce SOAR (State, Operator, And Result), una arquitectura de inteligencia artificial diseñada para modelar y simular el comportamiento cognitivo humano.
- 1986: Se introduce el algoritmo de retropropagación (backpropagation) para redes neuronales, permitiendo que éstas ajusten sus pesos internos mediante la minimización del error en las predicciones, mejorando significativamente su capacidad de aprendizaje y precisión.
El segundo “Invierno de la IA” (1987-1997)
El segundo invierno ocurre al final de los anos 80 del siglo XX, otros seis años entre 1987 y 1993, donde otra vez el iteres se vuelve a enfriar debido la falta de avances.
La resurrección de la IA (1997-2005)
Con el avance tanto en la capacidad de cálculo del hardware, como en la evolución del software, la IA comienza a resurgir a finales de la década de los 90 del siglo XX.
- 1997: Deep Blue, desarrollado por IBM, derrota al campeón mundial de ajedrez Garry Kasparov, marcando un hito significativo en el campo de la IA.
- 1999: Se desarrollan las primeras aplicaciones comerciales de la IA en áreas como el reconocimiento de voz y la minería de datos.
La era moderna de la IA (2006-actualidad)
Una vez entrado en el siglo XXI, debido a los éxitos recientes, resurge un interés masivo por la IA. Algo que viene impulsado por el crecimiento exponencial en la capacidad de procesamiento, el aumento en la capacidad de almacenamiento de datos y las técnicas de aprendizaje profundo (deep learning).
- 2006: Geoffrey Hinton, Simon Osindero y Yee-Whye Teh introducen el concepto de redes neuronales profundas, revolucionando el aprendizaje automático.
- 2011: IBM Watson gana el concurso de televisión Jeopardy!, demostrando avances significativos en el procesamiento del lenguaje natural y la IA.
- 2012: El algoritmo de AlexNet, desarrollado por Alex Krizhevsky, Ilya Sutskever y Geoffrey Hinton, gana el concurso ImageNet, marcando un hito en la capacidad de las máquinas para reconocer imágenes.
La última década ha sido testigo de avances impresionantes en diversas aplicaciones de la IA, desde el reconocimiento de imágenes y voz hasta la conducción autónoma y la generación de texto.
- 2015: AlphaGo, desarrollado por DeepMind, derrota al campeón mundial de Go, un juego considerablemente más complejo que el ajedrez.
- 2019: OpenAI desarrolla GPT-2, un modelo de lenguaje capaz de generar texto coherente y realista, seguido por GPT-3 en 2020, que marca un avance significativo en la generación de lenguaje natural.
Conclusiones
El mito de que la inteligencia artificial es una tecnología completamente nueva es erróneo. Como se ha visto en esta entrada, la IA moderna aparece hace un siglo con los conceptos matemáticos de Alan Turing y las redes neuronales de McCulloch y Pitts. Un siglo de evolución, con sus “inviernos”, es lo que ha conseguido los avances modernos en aprendizaje profundo y procesamiento de lenguaje natural.
Imagen de Alexandra_Koch en Pixabay
Deja una respuesta