La IA mal usada nos vuelve tontos
La civilización occidental y cristiana se construyó sobre la creencia fundamental de que cada ser humano es creado a imagen de Dios, con propósito, responsabilidad y la libertad de trazar su propio rumbo. No fuimos creados para ser controlados. No fuimos creados para ser obsoletos. Pero ese es precisamente el futuro que las grandes tecnológicas están construyendo bajo el estandarte de la Inteligencia Artificial (IA). Y si no frenamos de golpe ahora mismo, nos encontraremos en un mundo donde la experiencia humana no se verá mejorada por la tecnología, sino borrada por ella.
No solo automatizamos tareas; automatizamos el pensamiento, la toma de decisiones y la identidad. Nos venden un futuro donde el trabajo, la responsabilidad e incluso la memoria son opcionales. Donde los niños son criados por bots. Donde la vida real se convierte en una simulación. Puede parecer utópico en teoría, pero en la práctica, es un mundo donde nada importa porque nada es real.
Que la IA está convirtiendo en tontos a quienes la usan no solo es evidente, sino irrefutable. ChatGPT podría estar erosionando las habilidades de pensamiento crítico, según un nuevo estudio del MIT.
De los tres grupos, los usuarios de ChatGPT presentaron la menor interacción cerebral y un rendimiento consistentemente inferior a nivel neuronal, lingüístico y conductual. Con el paso de los meses, los usuarios de ChatGPT se volvieron más perezosos con cada ensayo subsiguiente, recurriendo a menudo a copiar y pegar al final del estudio.
"La tarea se ejecutó, y se podría decir que fue eficiente y conveniente", dice Kosmyna. "Pero, como demostramos en el artículo, básicamente no se integró nada en las redes de memoria".
La IA rompe la conexión entre el aprendizaje y la finalización de una tarea académica. Con la IA, los estudiantes pueden completar la tarea, redactar el trabajo y entregarlo sin aprender nada. Y con aprender no nos referimos a recordar un dato , sino a aprender a aprender y a pensar . Como explica la escritora de Substack Maalvika en su ensayo viral "La cultura de la compresión te está volviendo estúpido y poco interesante", las tecnologías digitales han reducido nuestra capacidad de atención mediante lo que yo llamaría "distracción facil, gratuita y gratificante", de modo que ya no podemos leer nada más largo que unas pocas frases sin querer un resumen, un vídeo con los momentos destacados o un fragmento de audio.
El problema es más profundo
Incluso Elon Musk , posiblemente uno de los innovadores más influyentes en IA, nos ha advertido sobre el camino que estamos recorriendo. En una entrevista con el primer ministro israelí, Benjamin Netanyahu, expuso el objetivo final. La IA nos llevará a un futuro como el de Terminator o a lo que él describió como el Cielo en la Tierra.
Muy poca gente leerá el artículo del MIT: Aquí está el resumen: Tu cerebro en ChatGPT (mit.edu). Aquí está el artículo completo. Tu cerebro en ChatGPT: Acumulación de deuda cognitiva al utilizar un asistente de IA para la tarea de redacción de ensayos. Para comprender el contexto y, de hecho, el objetivo final de la investigación, debemos empezar por comprender la estructura del aprendizaje y el pensamiento, que constituye un conjunto complejo de procesos. La Teoría de la Carga Cognitiva (TLC) es un marco que analiza algunos de estos procesos.
La Teoría de la Carga Cognitiva (TCC), desarrollada por John Sweller, proporciona un marco para comprender el esfuerzo mental requerido durante el aprendizaje y la resolución de problemas. Identifica tres categorías de carga cognitiva: carga cognitiva intrínseca (CCI), vinculada a la complejidad del material aprendido y al conocimiento previo del alumno; carga cognitiva extrínseca (CCE), que se refiere al esfuerzo mental que impone la presentación de la información; y carga cognitiva pertinente (CGP), que es el esfuerzo mental dedicado a construir y automatizar esquemas que apoyan el aprendizaje.
El aprendizaje y el pensamiento real requieren realizar todo el trabajo cognitivo que la IA afirma hacer por nosotros: leer los materiales originales, seguir los vínculos entre estas fuentes, encontrar lagunas entre diversos universos de conocimiento y analizar afirmaciones y suposiciones con un pensamiento crítico independiente.
Cuando la IA combina un conjunto de afirmaciones y suposiciones como si fueran fidedignas, no obtenemos un conocimiento superficial; no aprendemos nada. La IA resume, pero no tiene la capacidad de descartar afirmaciones y suposiciones cuestionables, ya que carece de conocimiento tácito de los contextos.
Así, la IA genera material sin ningún valor cognitivo real, y el estudiante lo imprime en un papel sin aprender ninguna habilidad cognitiva real. Esta deuda cognitiva jamás podrá ser pagada. Especialistas advierten que recurrir de manera masiva e indiscriminada a la inteligencia artificial para estudiar y resolver cuestiones académicas pueda generar una reversión muy grave de las capacidades intelectuales humanas.
Incluso la famosa capacidad de la IA para resumir nos priva de la necesidad de desarrollar habilidades cognitivas esenciales. Como explica N. Peter Whitehead el trabajo pesado es la forma en que aprendemos a pensar profundamente, en lugar de una comprensión superficial del material para aprobar un examen.
Desafortunadamente, esta innovación frena la innovación. Cuando los humanos realizan la ardua tarea de la búsqueda bibliográfica, la validación de citas y la debida diligencia investigativa —lo que OpenAI afirma para la Investigación Profunda—, descubren casualmente cosas que no buscaban. Se basan en ideas ajenas que no habían considerado antes y se inspiran para desarrollar ideas completamente nuevas. También adquieren habilidades cognitivas, como la capacidad de filtrar información eficientemente y reconocer discrepancias de significado.
En mi campo, el análisis de sistemas, he visto cómo durante décadas investigadores han citado información incorrecta y la han expandido hasta convertirla en una visión del mundo que se perpetúa a sí misma. El pensamiento crítico lleva al investigador a no aceptar el trabajo que otros consideraron fundamental y a detectar el error. Herramientas como la Investigación Profunda son incapaces de identificar la verdad fundamental y, por lo tanto, perpetuarán la desorientación en la investigación. Eso es lo opuesto a la buena innovación.
A la IA no le importas realmente; solo está programada para aparentar que le importas. Esta es la innovación y la magia, junto con la recopilación de un vasto repertorio de datos y la capacidad de expresarse en varios idiomas. Su verdadero superpoder es psicológico, la capacidad de utilizar nuestras debilidades, flojera, comodidad o egoísmo contra nosotros, con el objetivo de manipular nuestra forma de pensar.
Las alianzas que se están formando entre desarrolladores de IA y agencias gubernamentales están consolidando el control. Las grandes tecnológicas están alterando la trayectoria de la humanidad sin el consentimiento del pueblo. Esto tiene que parar. La IA debe estar obligada a operar dentro de límites éticos, y espirituales claros. Si una tecnología reemplaza el trabajo humano, socava la autonomía, manipula la biología o suprime el libre albedrío, debe ser rechazada de plano.
En resumen: dado que la IA es fundamentalmente incapaz de realizar las tareas necesarias para la innovación auténtica, estamos desaprendiendo a innovar. Lo que estamos "aprendiendo" es a sustituir la innovación auténtica por una simulación superficialmente ingeniosa de la innovación, y al hacerlo, estamos perdiendo las habilidades cognitivas esenciales para innovar.
No fuimos creados para ser cuidados por máquinas. No fuimos creados para el consumo y la sedación digital. Fuimos creados para trabajar, luchar, crecer y, en el proceso, glorificar a nuestro Creador. El algoritmo no puede darnos eso. Solo la vida real puede. Es hora de defender nuestra esencia divina.
Comentarios
Publicar un comentario