Seguimos con esta serie sobre inteligencia artificial y chatbots en la que exploramos cómo funcionan realmente y qué riesgos implican. En este segundo artículo analizamos en profundidad las diferencias entre los chatbots de IA y las redes sociales, comparando sus algoritmos, sus objetivos y el impacto que tienen en la forma en la que consumimos información.
La serie completa incluye los siguientes artículos:
Durante los últimos quince años hemos aprendido a desconfiar de los algoritmos. Las redes sociales nos han acostumbrado a una idea bastante clara: cuando interactuamos con una plataforma digital, normalmente hay algún sistema optimizando para obtener nuestra atención. Los contenidos que vemos no aparecen simplemente porque si, sino porque un algoritmo ha decidido que probablemente reaccionaremos ante ellos.
Con el tiempo hemos descubierto algo inquietante sobre esos algoritmos. No están optimizados para mostrarnos lo mejor o lo verdadero. Más bien están optimizados para capturar nuestra atención y mantenernos dentro de la plataforma.
En ese tiempo, las plataformas como Facebook, YouTube o TikTok han aprendido algo bastante simple sobre la psicología humana: los contenidos que provocan emociones fuertes suelen generar más interacción que los que invitan a la calma. La indignación retiene más atención que la moderación. El conflicto genera más comentarios que el acuerdo. La polémica se comparte más que la reflexión.
Un descubrimiento que ha moldeado buena parte del ecosistema digital en el que vivimos.
Por eso, cuando empezaron a popularizarse los chatbots de inteligencia artificial, muchas personas asumieron que podrían ser otra versión del mismo problema. Pero los chatbots funcionan de una manera muy diferente.
Tabla de contenidos
Las redes sociales tienen un incentivo económico bastante claro: mantenerte el mayor tiempo posible dentro de la plataforma. Cada segundo adicional significa más oportunidades para mostrar publicidad o generar interacción.
Los sistemas de recomendación se entrenan precisamente para maximizar ese tipo de métricas. Analizan qué contenidos te hacen detenerte más tiempo, cuáles provocan más reacciones y cuáles te llevan a seguir navegando. Una optimización que tiene efectos acumulativos. Si un tipo de contenido genera más engagement, el algoritmo lo muestra más. Y si se muestra más, recibe más interacción, lo que refuerza aún más su visibilidad. Es un círculo bastante conocido.
Los chatbots, en cambio, no funcionan con ese tipo de dinámica. Un chatbot no gana nada si te enfadas con él. Tampoco obtiene una recompensa directa si pasas más tiempo conversando. No existe, al menos de momento, un mecanismo que optimice la conversación para mantenerte atrapado dentro de ella (aunque, con la llegada de la publicidad, podrían cambiar los incentivos). Su tarea es mucho más simple: responder a la pregunta que has hecho. Eso cambia profundamente su lógica de la interacción.
Si comparas una conversación con un chatbot con el ambiente de muchas redes sociales, la diferencia resulta bastante evidente. Básicamente:
Incluso cuando se discuten temas complejos o controvertidos, la interacción mantiene una cierta serenidad. Esta tranquilidad puede resultar sorprendente para las personas que están acostumbradas al ruido constante de las plataformas sociales. En comparación, hablar con una inteligencia artificial puede parecer casi una experiencia intelectual. La conversación tiene la apariencia de un diálogo reflexivo. Siendo precisamente en este punto donde aparece una cuestión interesante.
Cuando algo se presenta de forma calmada y razonada, tendemos a interpretarlo como neutral.Por otro lado, si un texto está lleno de gritos y exclamaciones, asumimos inmediatamente que el autor esta involucrado emocionalmente o, en el peor de los casos, pretende manipular. Pero cuando el tono es sereno y analítico, solemos bajar automáticamente la guardia.
Las respuestas de los chatbots están diseñadas para tener ese tono calmado. Explican los argumentos con cuidado, reconocen matices y suelen evitar afirmaciones categóricas cuando el tema es complejo. Todo eso transmite una sensación diferente e importante: la impresión de que estamos conversando con un interlocutor objetivo.
Sin embargo, el sistema que produce esas respuestas no está optimizado para encontrar la verdad en un sentido filosófico profundo. Está optimizado para producir respuestas que resulten satisfactorias para el usuario. La diferencia puede parecer sutil, pero es muy importante.
Los modelos de lenguaje son extraordinariamente buenos produciendo explicaciones plausibles. Pueden resumir ideas, comparar argumentos y desarrollar razonamientos con una fluidez que hace pocos años habría parecido ciencia ficción. Lo que crea un experiencia muy particular.
Durante unos minutos puedes sentir que estás participando en una conversación intelectual sofisticada. El sistema parece comprender el problema, examinar distintas perspectivas y llegar a conclusiones razonadas. Pero en realidad está haciendo algo ligeramente distinto. Está generando texto que suena como una explicación razonable.
Lo que en muchos casos coincide con una explicación correcta. Pero el mecanismo que produce esa respuesta no es el mismo que utilizaría un investigador que intenta demostrar que una hipótesis es falsa.
La inteligencia artificial no tiene curiosidad propia. Tampoco tiene un interés personal en demostrar que una idea está equivocada. Su tarea es más modesta: continuar la conversación de forma útil.
Esto nos lleva a un punto interesante. Las redes sociales pueden empujarnos hacia contenidos cada vez más extremos porque están optimizadas para captar nuestra atención. Los chatbots de IA no tienen ese incentivo. Pero sí pueden crear algo distinto: la ilusión de una conversación intelectual neutral. Lo que puede ser incluso más peligroso.
Cuando hablamos con una persona, somos conscientes de que esa persona tiene opiniones, intereses y limitaciones. Sabemos que puede equivocarse o interpretar las cosas desde su propia perspectiva.
Por otro lado, cuando hablamos con una inteligencia artificial, esa percepción cambia. El sistema no parece tener emociones ni preferencias visibles. Sus respuestas están redactadas con un tono equilibrado.
Y eso puede hacernos olvidar que detrás sigue existiendo un modelo estadístico entrenado con ciertos conjuntos de datos y ciertas preferencias humanas. No es una mente independiente observando el mundo con objetividad perfecta. Es una herramienta diseñada para producir respuestas plausibles dentro de una conversación.
Aquí aparece una pequeña paradoja. Las redes sociales nos manipulan de forma bastante evidente: utilizan algoritmos para empujarnos hacia contenidos que generan más interacción. Los chatbots no hacen eso. Pero, precisamente por no hacerlo, pueden parecer más fiables de lo que realmente son.
La conversación parece tranquila, razonable y analítica. Y esa apariencia puede generar una confianza excesiva. Por lo que es fácil interpretar las respuestas de un chatbot como una especie de evaluación externa de nuestras ideas. Aunque, en realidad, muchas veces el sistema simplemente está desarrollando el marco que nosotros mismos hemos propuesto.
Como ya hemos discutido en la entrada anterior, y profundizaremos en la siguiente, los chatbots están entrenados para que las conversaciones sean agradables. Por lo que suelen evitar la confrontación.
Nada de esto significa que las inteligencias artificiales conversacionales sean inútiles o engañosas. Al contrario, pueden ser herramientas extraordinariamente útiles para pensar. Permiten explorar argumentos desde distintos ángulos, organizar información compleja o examinar hipótesis rápidamente.
Pero son más útiles cuando entendemos cuál es su papel. No son los árbitros definitivos del conocimiento. Son solamente instrumentos para explorar ideas. La responsabilidad de examinar esas ideas con espíritu crítico sigue siendo responsabilidad exclusivamente humana.
En el próximo artículo de esta serie abordaremos un problema más profundo. Los seres humanos tenemos una tendencia psicológica bien conocida: buscamos información que confirme lo que ya creemos. Ese fenómeno se llama sesgo de confirmación.
Las inteligencias artificiales no tienen ese sesgo de forma consciente. Pero pueden amplificarlo. Y en algunos casos pueden hacerlo de una manera mucho más sutil que cualquier red social.
Entradas de la serie Conversar con una inteligencia artificial:
Imagen de Alexandra_Koch en Pixabay
El laboratorio de aplicaciones interactivas de Analytics Lane incorpora una nueva herramienta pensada para resolver…
El laboratorio de aplicaciones de Analytics Lane incorpora una nueva herramienta orientada al día a…
El laboratorio de aplicaciones interactivas de Analytics Lane sigue creciendo con nuevas herramientas diseñadas para…
El laboratorio de aplicaciones interactivas de Analytics Lane sigue creciendo con nuevas herramientas orientadas a…
El laboratorio de aplicaciones interactivas de Analytics Lane sigue ampliando su catálogo con herramientas diseñadas…
Hoy iniciamos una serie de tres entradas en la que vamos a analizar los peligros…
This website uses cookies.