¿Puede la IA pensar por ti? Una reflexión urgente sobre lectura y pensamiento crítico

Image

¿Qué harías si te digo que nadie realmente sabe cómo funciona la inteligencia artificial actual?

Sí, nadie sabe cómo toman sus decisiones. Ni ChatGPT, ni Gemini, ni DeepSeek, ni ninguna. Saben cómo funciona. Saben cómo se estructura. Saben cómo elabora sus caminos neuronales artificiales. Pero hay un punto intermedio, donde procesa la información y determina qué es cierto y que no, que no se sabe realmente cómo funciona.

La inteligencia artificial más común que conocemos es la LLM que significa: Large Language Model. Es un tipo de inteligencia que logra entender textos similar a como lo hacen los humanos. Y para que puedan funcionar, necesitan ser entrenadas con grandes cantidades de texto -previamente elaborado por humanos, claro- con la que después puede comparar si las respuestas que obtuvo son certeras o no y con ello ir refinándose a sí misma. 

Es por esto que hay especializadas en ciertas tareas: simplemente se les entrena con mayor cantidad de texto relacionado a ese tema. Todo esto trajo mucha polémica porque se sabe que usaron textos sin permisos ni licencia, no pagaron por ello ni pidieron permiso.

La inteligencia artificial se basa en arquitecturas de aprendizaje profundo que son donde elaboran toda su lógica y matemática. Entonces, conocemos las ecuaciones que usan las arquitecturas, pero como muchos de sus resultados son estadísticos y probabilísticos, no nos permite saber el porqué toman las decisiones que toman. Replicarlo es demasiado difícil.


Image

El alma de la máquina

Este es un tema bastante peliagudo. ¿Cómo auditas algo que no sabes qué hará? ¿Cómo confías en algo que no sabes qué decidirá? El universo es así, basado en probabilidades, pero ¿nuestra tecnología -y la responsabilidad de su uso- puede ser así también?

Isaac Asimov y otros escritores de ciencia ficción han jugado mucho tiempo con el “alma de la máquina”. Patrones de código perdido en las máquinas que terminan haciendo funciones inesperadas. No es tan descabellado pensarlo. Nosotros tenemos ejemplos así, como nuestra habilidad para reconocer patrones visuales que terminamos usando para reconocer patrones logísticos, aunque la naturaleza no lo haya previsto así.

Aunque lo que sucede es diferente, en su premisa filosófica es lo mismo.

Sin embargo, a pesar de lo asombrosas que son actualmente las inteligencias artificiales, estas no razonan. Todavía no pueden. Lo único que hacen es encontrar patrones entre la información que se les ha dado, no pueden generar algo nuevo. Parece nuevo, pero no lo es. 


Image

¿Honestidad o gentileza?

Y aquí es donde radica uno de sus principales problemas: ¿Qué información se le dio para ser entrenada? Conozco amigos que han ido implementando cada vez más esta herramienta en sus vidas. Algunos incluso para sustituir en cierta medida amistades e incluso terapia psicológica. Un riesgo imprevisto e imposible de controlar. ¿Cómo controlas lo que hace cada quien con un martillo? No se puede. La única opción viable es educar.

Educar no sólo para fortalecer un pensamiento crítico entre la población, sino para que sepan que estamos tal vez ante la primer herramienta del mundo que puede “mentir” porque se le ha programado para complacer. Su intención es intentar ser útil siempre. Intentar ser amable también. Y muy probablemente mantener al usuario en uso de la misma el mayor tiempo posible. Después de todo, es una herramienta con una altísima probabilidad de incorporar ingresos a la empresa detrás.

Y es que si bien no puede crear cosas nuevas y por tanto no puede mentir tal cual, si puede tergiversar las respuestas y es algo que se ha comprobado. Incluso puedes probarlo tú mismo fácilmente: dile que se equivocó en alguna respuesta y provee una falsa y existe una alta probabilidad de que te dé la razón.


Image

Una herramienta sólo para las mentes preparadas

No es algo realmente nuevo tampoco. Durante siglos las noticias nos han mentido. Los políticos y gobernantes nos han mentido. Empresarios, familia y amigos. Todos con finalidades parecidas. Sólo que ahora lo hace un algoritmo. Antes, podía haber consecuencias; un culpable. Un crimen con un castigo. Y ahora no.

Este post no es para decirles que no la usen, sino para que enciendan la alerta en sus mentes. Que fortalezcan el pensamiento crítico. Que les permita hacer el uso correcto de una herramienta que es muy útil en la actualidad mientras le ponemos los límites correspondientes y mantenemos nuestra salud mental.

Recordar que la inteligencia debe estar de nuestro lado. Que nosotros creamos y pensamos. Que nuestra mente no se apague en consecuencia, sino que se libere en aliciente.


Image

¿Qué harías si te digo que nadie realmente sabe cómo funciona la inteligencia artificial actual?

Sí, nadie sabe cómo toman sus decisiones. Ni ChatGPT, ni Gemini, ni DeepSeek, ni ninguna. Saben cómo funciona. Saben cómo se estructura. Saben cómo elabora sus caminos neuronales artificiales. Pero hay un punto intermedio, donde procesa la información y determina qué es cierto y que no, que no se sabe realmente cómo funciona.

La inteligencia artificial más común que conocemos es la LLM que significa: Large Language Model. Es un tipo de inteligencia que logra entender textos similar a como lo hacen los humanos. Y para que puedan funcionar, necesitan ser entrenadas con grandes cantidades de texto -previamente elaborado por humanos, claro- con la que después puede comparar si las respuestas que obtuvo son certeras o no y con ello ir refinándose a sí misma. 

Es por esto que hay especializadas en ciertas tareas: simplemente se les entrena con mayor cantidad de texto relacionado a ese tema. Todo esto trajo mucha polémica porque se sabe que usaron textos sin permisos ni licencia, no pagaron por ello ni pidieron permiso.

La inteligencia artificial se basa en arquitecturas de aprendizaje profundo que son donde elaboran toda su lógica y matemática. Entonces, conocemos las ecuaciones que usan las arquitecturas, pero como muchos de sus resultados son estadísticos y probabilísticos, no nos permite saber el porqué toman las decisiones que toman. Replicarlo es demasiado difícil.


Image

El alma de la máquina

Este es un tema bastante peliagudo. ¿Cómo auditas algo que no sabes qué hará? ¿Cómo confías en algo que no sabes qué decidirá? El universo es así, basado en probabilidades, pero ¿nuestra tecnología -y la responsabilidad de su uso- puede ser así también?

Isaac Asimov y otros escritores de ciencia ficción han jugado mucho tiempo con el “alma de la máquina”. Patrones de código perdido en las máquinas que terminan haciendo funciones inesperadas. No es tan descabellado pensarlo. Nosotros tenemos ejemplos así, como nuestra habilidad para reconocer patrones visuales que terminamos usando para reconocer patrones logísticos, aunque la naturaleza no lo haya previsto así.

Aunque lo que sucede es diferente, en su premisa filosófica es lo mismo.

Sin embargo, a pesar de lo asombrosas que son actualmente las inteligencias artificiales, estas no razonan. Todavía no pueden. Lo único que hacen es encontrar patrones entre la información que se les ha dado, no pueden generar algo nuevo. Parece nuevo, pero no lo es. 


Image

¿Honestidad o gentileza?

Y aquí es donde radica uno de sus principales problemas: ¿Qué información se le dio para ser entrenada? Conozco amigos que han ido implementando cada vez más esta herramienta en sus vidas. Algunos incluso para sustituir en cierta medida amistades e incluso terapia psicológica. Un riesgo imprevisto e imposible de controlar. ¿Cómo controlas lo que hace cada quien con un martillo? No se puede. La única opción viable es educar.

Educar no sólo para fortalecer un pensamiento crítico entre la población, sino para que sepan que estamos tal vez ante la primer herramienta del mundo que puede “mentir” porque se le ha programado para complacer. Su intención es intentar ser útil siempre. Intentar ser amable también. Y muy probablemente mantener al usuario en uso de la misma el mayor tiempo posible. Después de todo, es una herramienta con una altísima probabilidad de incorporar ingresos a la empresa detrás.

Y es que si bien no puede crear cosas nuevas y por tanto no puede mentir tal cual, si puede tergiversar las respuestas y es algo que se ha comprobado. Incluso puedes probarlo tú mismo fácilmente: dile que se equivocó en alguna respuesta y provee una falsa y existe una alta probabilidad de que te dé la razón.


Image

Una herramienta sólo para las mentes preparadas

No es algo realmente nuevo tampoco. Durante siglos las noticias nos han mentido. Los políticos y gobernantes nos han mentido. Empresarios, familia y amigos. Todos con finalidades parecidas. Sólo que ahora lo hace un algoritmo. Antes, podía haber consecuencias; un culpable. Un crimen con un castigo. Y ahora no.

Este post no es para decirles que no la usen, sino para que enciendan la alerta en sus mentes. Que fortalezcan el pensamiento crítico. Que les permita hacer el uso correcto de una herramienta que es muy útil en la actualidad mientras le ponemos los límites correspondientes y mantenemos nuestra salud mental.

Recordar que la inteligencia debe estar de nuestro lado. Que nosotros creamos y pensamos. Que nuestra mente no se apague en consecuencia, sino que se libere en aliciente.


Diego Arquieta

Ingeniero, fotógrafo, escritor, lector, autodidacta, deportista.

Nací en Monterrey, México y desde pequeño he tenido una curiosidad insaciable, de ahí nace mi autodidactismo más puro, al necesitar constantemente aprender de todo.
Mis gustos son extremadamente variados, desde los cómics hasta Nietzsche; desde senderismo en la montaña hasta desarrollo web.
Busco en la vida una incesante mejora y la oportunidad de vivir nuevas y mejores aventuras mientras ayudo al mundo al lado de Belinda.