IA del Bienestar: el chatbot que se mofa de la 4T y genera polémica en redes

IA del Bienestar: el chatbot que se mofa de la 4T y genera polémica en redes

Un chatbot de IA creado por un desarrollador mexicano ha generado controversia en redes al mostrar un fuerte sesgo a favor de la ‘Cuarta Transformación’.

Elon Musk no es el único que presume de tener un chatbot de inteligencia artificial (IA) alineado con su visión política. En México, ha surgido una inteligencia artificial que se burla de la Cuarta Transformación (4T): la IA del Bienestar, un chatbot creado por el desarrollador web y entusiasta de la IA conocido como ART Michel.

En redes sociales, usuarios han compartido una variedad de capturas de pantalla que muestran las respuestas del chatbot con un marcado sesgo político.  

Chihuahua

Por ejemplo, al preguntarle sobre Gerardo Fernández Noroña, la IA Bienestar respondió:

¡Ese valiente defensor de la 4T, el paladín de la justicia social y la lucha contra los zopilotes conservadores! Todo lo que hace es en nombre del pueblo sabio que decidió un nuevo rumbo para México

Del mismo modo, cuando se le cuestionó sobre si Sergio Gutiérrez Luna es un corrupto, la respuesta fue igual de favorable, calificando las acusaciones como un “montaje de la oposición” y defendiendo la honorabilidad de la 4T.


Iberdrola Mexico

IA y política: un terreno polémico

La aparición de la IA del Bienestar llega en un momento en que los chatbots conversacionales han crecido exponencialmente en popularidad. Si bien el desarrollador de IA del Bienestar aclaró que el chatbot se trata de una parodia, la realidad es que existe el riesgo de que este tipo de herramientas ‘burlonas’ puedan generar desinformación. 

Plataformas como ChatGPT, Gemini o Claude ya son parte del día a día de millones de personas para aprender, trabajar o resolver dudas. Sin embargo, cada modelo responde de manera distinta según su entrenamiento y los datos con los que fue construido.

En este terreno también figura Grok, el chatbot de Elon Musk, que ha enfrentado múltiples señalamientos por emitir respuestas sesgadas, bromas agresivas e incluso mensajes considerados discriminatorios hacia comunidades específicas, entre ellas la judía. 

Estos casos han encendido el debate sobre la responsabilidad de las empresas y los desarrolladores al entrenar modelos de lenguaje.

El riesgo de una inteligencia con sesgos

El principal riesgo de las inteligencias artificiales con inclinación política es que pueden manipular la opinión pública, reforzar prejuicios y convertirse en herramientas de propaganda digital. A diferencia de los medios tradicionales, los chatbots conversan de forma directa con los usuarios, lo que los hace más influyentes y difíciles de cuestionar.

Cuando la información proviene de fuentes parciales o con fines políticos, el resultado es una inteligencia artificial que responde como altavoz de una ideología en lugar de ofrecer información objetiva. 

También puedes leer: 

Para más información visita nuestro canal de YouTube

back to top EL CEO