En los últimos años la inteligencia artificial (IA) se ha vuelto una herramienta clave para la creación de soluciones innovadoras en casi cualquier campo. Ofreciendo soluciones automatizadas que, en muchos casos, pueden competir con expertos humanos. Llegando a superarlos en algunas aplicaciones o tareas concretas. Esto puede llevar a muchos usuarios a pensar que las decisiones tomadas por la IA son siempre correctas, una percepción que puede llevar a una confianza ciega en la tecnología. Una confianza que puede llegar a tener consecuencias desastrosas. Por lo que, uno de los mitos sobre la IA más peligrosos es la creencia de que esta es infalible. En esta entrada, se analizará los posibles orígenes del mito del que la IA es infalible, para analizar y descubrir cuales son las limitaciones que tienen estos sistemas en la actualidad.
Tabla de contenidos
El origen más probable del mito de que la IA es infalible es la percepción existente, muchas veces alentadas por los propios tecnólogos, sobre la precisión inherente que se encuentra detrás de las tecnologías más avanzadas. Como es el caso de la IA. A lo largo de la historia, para el desarrollo de nuevas tecnologías generalmente ha sido necesario usar las técnicas más avanzadas disponibles. La IA no es una excepción, ya que para su desarrollo se ha basado en los últimos avances en diferentes áreas de las tecnologías de la información. Avances que requieren una altísima presión para su consecución.
Así, la IA se puede apreciar por el público general como una de las tecnologías más avanzadas de nuestro tiempo. Algo que es cierto, pero en los medios de comunicación y la cultura popular se muestra generalmente una visión exagerada de la situación actual. Llegándose a retratar, especialmente en películas y literatura de ciencia ficción, como una entidad omnipotente e infalible. Lo que ayuda a reforzar el mito de que la IA es infalible.
Otro motivo que ayuda a la proliferación de este mito es la confianza excesiva, pudiendo llegar a ser una confianza ciega, en los resultados de los algoritmos. Basada en gran medida por la naturaleza matemática y lógica de estos. Las matemáticas y la lógica siempre se han percibido como unas herramientas intrínsecamente objetivas y precisas. Pero es necesario recordar que, aunque las herramientas sean en sí precisas, cuando se utilizan de una forma incorrecta los resultados obtenidos no tienen por qué ser correctos. Así, como la IA no son más que algoritmos avanzados, se suele confiar en exceso en sus predicciones.
Para entender por qué la IA es falible es necesario comprender los fundamentos de cómo funcionan estos modelos. En la actualidad, la mayoría de los sistemas de IA se basan en aprendizaje automático, el campo de la inteligencia artificial que se centra en el estudio y desarrollo de algoritmos con los que las máquinas puedan aprender a identificar patrones automáticamente a partir de datos. Básicamente, el proceso para crear una solución de IA usando técnicas de aprendizaje automático se puede resumir en los siguientes puntos:
Este proceso es altamente dependiente de los datos, los algoritmos y la supervisión de los resultados. Si falla alguno de estos puntos, el resultado puede ser incorrecto.
Un factor crucial en el rendimiento de cualquier modelo de IA es la calidad de los datos utilizados para su entrenamiento. Si los datos contienen errores, sesgos o son incompletos, el modelo perpetúa estos problemas. Algo que se resumen en la famosa expresión “garbage in, garbage out” (basura entra, basura sale), si se alimenta un modelo de IA con datos erróneos, el modelo producirá predicciones erróneas. Incluso los algoritmos más sofisticados y avanzados no pueden superar las limitaciones de los datos con errores.
Un ejemplo de este problema se puede ver en los modelos de IA para la aprobación de préstamos. Cuando los datos históricos utilizados para entrenar el modelo contienen un sesgo implícito contra ciertos grupos demográficos (por ejemplo, debido a prácticas discriminatorias pasadas), el modelo aprenderá y perpetúa ese sesgo, resultando en decisiones injustas. Aunque el algoritmo en sí no es consciente de los prejuicios, su dependencia de los datos sesgados lleva a resultados sesgados.
Además de la calidad de los datos, los propios algoritmos tienen limitaciones inherentes que pueden llevar a errores. Algunas de las limitaciones más comunes de estos son:
Otro problema que se puede observar en los modelos de IA es la falta de pensamiento crítico. Los modelos de IA carecen de la capacidad para cuestionar sus propias decisiones, esto es, no pueden identificar y corregir sus propios errores de manera autónoma. Es necesario que una persona u otro modelo de monitorización identifique el error y vuelva a ajustar los parámetros para corregirlo. A diferencia de los humanos, que pueden reflexionar sobre sus decisiones y aprender de sus errores de manera consciente, la IA solo puede mejorar a través de la retroalimentación explícita.
Este tipo de problemas se puede ver en los modelos de lenguaje avanzados como GPT que puede cometer errores al no comprender el texto que generan. Aunque pueden producir texto coherente y convincente, sus respuestas se basan en patrones estadísticos observados en los datos de entrenamiento, no en una comprensión real del mundo.
El hecho de que la IA sea falible se puede ver en múltiples casos del mundo real como lo que se comentan a continuación.
Un área donde la infalibilidad de la IA ha sido puesta a prueba es en el diagnóstico médico. Se han creado modelos basados en IA para ayudar en la interpretación y diagnóstico de imágenes médicas, como radiografías y resonancias magnéticas. Aunque los resultados en general son buenos, llegando a igualar o superar a expertos, también cometen errores en ciertas situaciones. Por ejemplo, en algunos casos, los modelos han pasado por alto tumores o han identificado incorrectamente tejidos sanos como cancerosos. Errores que pueden tener consecuencias para la salud de los pacientes, recordando la necesidad de una supervisión de los resultados.
Otro ejemplo destacado es el uso de la IA en el sistema judicial, donde se han implementado modelos para evaluar el riesgo de reincidencia de los delincuentes y recomendar sentencias. Al investigar los resultados, se ha observado que algunos de estos modelos han exhibido sesgos raciales, recomendando penas más severas para ciertos grupos demográficos. Un sesgo que puede ser debido a los datos de entrenamiento, que reflejan las desigualdades y prejuicios históricos. Al igual que en el caso anterior, estos resultados refuerzan la necesidad de revisar y auditar regularmente los modelos de IA para garantizar que sus decisiones sean justas y equitativas.
El mito de que la IA es infalible es posiblemente uno de los más peligrosos. Si algo se considera infalible, puede llevar a una confianza ciega en la tecnología y a la aplicación de decisiones mal informadas. La realidad es que los sistemas de IA, aunque produzcan buenos resultados en muchos casos, son susceptibles de errores debido a la calidad de los datos de entrenamiento, las limitaciones algorítmicas y la falta de comprensión contextual. Así, para utilizar la IA de forma efectiva es necesario reconocer estas limitaciones y auditar el desarrollo y el uso de la tecnología.
Imagen de Alexandra_Koch en Pixabay
El MSCI World Index suele presentarse como “la ventana al mundo” para quienes invierten en…
En el mundo del análisis de datos solemos escuchar una idea poderosa: cuantos más datos,…
¿Te has encontrado con este error al intentar instalar paquetes con npm? npm ERR! code…
En ciencia de datos y estadística, los promedios y porcentajes son herramientas fundamentales para resumir…
Las bases de datos son el corazón de casi cualquier sistema de información moderno. Ya…
En ciencia de datos, pocas cosas llaman más la atención de los científicos de datos…
This website uses cookies.