• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Encuestas: Tamaño de Muestra
    • Lotería: Probabilidad de Ganar
    • Reparto de Escaños (D’Hondt)
    • Tres en Raya con IA
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • Banggood
      • GeekBuying
      • Lenovo

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • R
  • Excel

La IA no es una tecnología completamente nueva: Desmitificando su historia y evolución [Mitos de la Inteligencia Artificial 7]

julio 16, 2024 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 5 minutos

Entre la población la inteligencia artificial (IA) se percibe como una tecnología completamente nueva, desarrollada durante las últimas décadas. Algo que es un mito. La historia de la IA se comienza al principio del siglo XX, en base a ideas incluso anteriores, con el desarrollo de conceptos que se han desarrollado y evolucionado durante un siglo. En esta entrada, se repasará la historia de la IA para conocer cómo ha evolucionado durante el siglo XX y principios del XXI

Tabla de contenidos

  • 1 ¿Qué es la inteligencia artificial?
  • 2 Historia de la inteligencia artificial
    • 2.1 Primeros conceptos y antecedentes (1900-1950)
    • 2.2 El nacimiento de la IA como campo de estudio (1950-1974)
    • 2.3 El primer “Invierno de la IA” (1974-1980)
    • 2.4 La primera edad de oro de la IA (1980-1987)
    • 2.5 El segundo “Invierno de la IA” (1987-1997)
    • 2.6 La resurrección de la IA (1997-2005)
    • 2.7 La era moderna de la IA (2006-actualidad)
  • 3 Conclusiones

¿Qué es la inteligencia artificial?

La inteligencia artificial es la rama de la informática que se centra en el desarrollo de sistemas capaces de realizar tareas que requieren inteligencia. Pudiendo competir en algunos casos con la humana. Lo que incluye la capacidad de aprender, razonar, percepción del entorno, comprensión del lenguaje natural y la toma de decisiones. Pudiéndose categorizar la IA en dos tipos principales:

  • IA débil o específica: Son los sistemas diseñados para realizar una tarea específica, como reconocer imágenes o jugar al ajedrez. Esta es la IA que se dispone en la actualidad, únicamente son útiles para las tareas que han sido entrenados.
  • IA fuerte o general: Estos serían sistemas con la capacidad de entender, aprender y aplicar sus conocimientos en diferentes contextos. Lo que lo haría similar a la inteligencia humana. Actualmente, no existe una IA de este tipo, ni siquiera que se le pueda acercar.

Los principales objetivos de la IA son la creación de máquinas inteligentes. Además de comprender mejor el surgimiento de la inteligencia como la humana.

Faker en Python: qué es, para qué sirve y cómo generar datos sintéticos realistas
En Analytics Lane
Faker en Python: qué es, para qué sirve y cómo generar datos sintéticos realistas

Publicidad


Historia de la inteligencia artificial

El inicio del desarrollo de la IA moderna se puede remontar al concepto de máquina de Turing introducida por Alan Turing en los años 30 del siglo XX.

Primeros conceptos y antecedentes (1900-1950)

  • 1936: El matemático británico Alan Turing publica “On Computable Numbers”, que introduce el concepto de la Máquina de Turing, una idea fundamental en la informática teórica y la inteligencia artificial.
  • 1943: Warren McCulloch y Walter Pitts publican un trabajo sobre redes neuronales, sentando las bases para la creación de redes artificiales capaces de realizar cálculos similares a los del cerebro humano.

Publicidad


El nacimiento de la IA como campo de estudio (1950-1974)

  • 1950: Alan Turing propone el “Test de Turing” en su artículo “Computing Machinery and Intelligence”, sugiriendo un criterio para determinar si una máquina puede pensar.
  • 1956: Se celebra la Conferencia de Dartmouth, organizada por John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon. Este evento marca el nacimiento oficial del campo de la inteligencia artificial.
  • 1958: John McCarthy desarrolla el lenguaje de programación LISP, que se convierte en el lenguaje estándar para la programación en IA.

En esta época es en la que se producen los primeros logros atribuibles a la IA:

  • 1957: El programa “Logic Theorist”, desarrollado por Allen Newell y Herbert A. Simon, es capaz de demostrar teoremas matemáticos.
  • 1966: Joseph Weizenbaum desarrolla ELIZA, uno de los primeros programas de procesamiento de lenguaje natural, capaz de simular una conversación con un psicoterapeuta.
  • 1972: Se desarrolla el sistema experto MYCIN, diseñado para diagnosticar infecciones bacterianas y recomendar tratamientos. Este sistema utiliza reglas de conocimiento para tomar decisiones, sentando las bases para futuros sistemas expertos.

El primer “Invierno de la IA” (1974-1980)

El primer iniverno ocurrió a mediados en la década de los 70 del siglo XX, uno seis años entre le 1974 y 1980, cuando el entusiasmo inicial de la IA se enfría debido a la falta de avances significativos. Lo que se debe a la existencia de unas expectativas exageradas sobre su desarrollo, algo que se repite en mayor o menor medida en la historia de la IA después de unos avances prometedores. La complejidad en el desarrollo de sistemas realmente inteligentes y falta de capacidad de cálculo, conducen a una reducción del interés y, en consecuencia, de la financiación.

Publicidad


La primera edad de oro de la IA (1980-1987)

Durante esta época, la IA experimenta un auge con avances significativos y financiamiento gubernamental, especialmente en Estados Unidos.

  • 1980: Surge el auge de los sistemas expertos, utilizados ampliamente en industrias como la medicina, la ingeniería y la finanza.
  • 1983: Se introduce SOAR (State, Operator, And Result), una arquitectura de inteligencia artificial diseñada para modelar y simular el comportamiento cognitivo humano.
  • 1986: Se introduce el algoritmo de retropropagación (backpropagation) para redes neuronales, permitiendo que éstas ajusten sus pesos internos mediante la minimización del error en las predicciones, mejorando significativamente su capacidad de aprendizaje y precisión.

El segundo “Invierno de la IA” (1987-1997)

El segundo invierno ocurre al final de los anos 80 del siglo XX, otros seis años entre 1987 y 1993, donde otra vez el iteres se vuelve a enfriar debido la falta de avances.

Publicidad


La resurrección de la IA (1997-2005)

Con el avance tanto en la capacidad de cálculo del hardware, como en la evolución del software, la IA comienza a resurgir a finales de la década de los 90 del siglo XX.

  • 1997: Deep Blue, desarrollado por IBM, derrota al campeón mundial de ajedrez Garry Kasparov, marcando un hito significativo en el campo de la IA.
  • 1999: Se desarrollan las primeras aplicaciones comerciales de la IA en áreas como el reconocimiento de voz y la minería de datos.

La era moderna de la IA (2006-actualidad)

Una vez entrado en el siglo XXI, debido a los éxitos recientes, resurge un interés masivo por la IA. Algo que viene impulsado por el crecimiento exponencial en la capacidad de procesamiento, el aumento en la capacidad de almacenamiento de datos y las técnicas de aprendizaje profundo (deep learning).

  • 2006: Geoffrey Hinton, Simon Osindero y Yee-Whye Teh introducen el concepto de redes neuronales profundas, revolucionando el aprendizaje automático.
  • 2011: IBM Watson gana el concurso de televisión Jeopardy!, demostrando avances significativos en el procesamiento del lenguaje natural y la IA.
  • 2012: El algoritmo de AlexNet, desarrollado por Alex Krizhevsky, Ilya Sutskever y Geoffrey Hinton, gana el concurso ImageNet, marcando un hito en la capacidad de las máquinas para reconocer imágenes.

La última década ha sido testigo de avances impresionantes en diversas aplicaciones de la IA, desde el reconocimiento de imágenes y voz hasta la conducción autónoma y la generación de texto.

  • 2015: AlphaGo, desarrollado por DeepMind, derrota al campeón mundial de Go, un juego considerablemente más complejo que el ajedrez.
  • 2019: OpenAI desarrolla GPT-2, un modelo de lenguaje capaz de generar texto coherente y realista, seguido por GPT-3 en 2020, que marca un avance significativo en la generación de lenguaje natural.

Publicidad


Conclusiones

El mito de que la inteligencia artificial es una tecnología completamente nueva es erróneo. Como se ha visto en esta entrada, la IA moderna aparece hace un siglo con los conceptos matemáticos de Alan Turing y las redes neuronales de McCulloch y Pitts. Un siglo de evolución, con sus “inviernos”, es lo que ha conseguido los avances modernos en aprendizaje profundo y procesamiento de lenguaje natural.

Imagen de Alexandra_Koch en Pixabay

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 0 / 5. Votos emitidos: 0

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicaciones relacionadas

  • Faker en Python: qué es, para qué sirve y cómo generar datos sintéticos realistas
  • Probabilidades y tests: por qué un resultado positivo no significa lo que crees
  • JSON en bases de datos: cuándo es buena idea y cuándo no
  • Roles en ciencia de datos: Guía completa de perfiles técnicos
  • Exactitud, precisión, recall… qué mide realmente cada métrica (y qué no)
  • Hardening de SSH en Rocky Linux 9: cómo desactivar KEX débiles y reforzar la seguridad
  • Nueva herramienta en Analytics Lane: generador de contraseñas seguras y frases de contraseña
  • Hardening de NGINX en 2026: configuración segura básica paso a paso

Publicado en: Opinión Etiquetado como: Mitos

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Hardening de NGINX en 2026: configuración segura básica paso a paso

marzo 12, 2026 Por Daniel Rodríguez

Nueva herramienta en Analytics Lane: generador de contraseñas seguras y frases de contraseña

marzo 10, 2026 Por Daniel Rodríguez

Hardening de SSH en Rocky Linux 9: cómo desactivar KEX débiles y reforzar la seguridad

marzo 5, 2026 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Imputación de valores nulos en Python publicado el marzo 22, 2021 | en Python
  • Hardening de NGINX en 2026: configuración segura básica paso a paso publicado el marzo 12, 2026 | en Herramientas
  • Ecuaciones multilínea en Markdown publicado el septiembre 14, 2022 | en Herramientas
  • Agregar un ID en una tabla en SQL Server existente asignando un valor autonumérico publicado el mayo 22, 2024 | en Herramientas
  • pandas Diferencias entre loc e iloc en Pandas publicado el febrero 6, 2023 | en Python

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.5 (10)

Diferencias entre var y let en JavaScript

Publicidad

Comentarios recientes

  • M. Pilar en Cómo eliminar las noticias en Windows 11 y recuperar tu concentración
  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2026 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto