El Teorema de Thomas y la fabricación de la realidad

25 de Abril de 2024

Simón Vargas
Simón Vargas

El Teorema de Thomas y la fabricación de la realidad

simon vargas

“Conocer significa ver la realidad desnuda, y no significa poseer la verdad sino penetrar bajo la superficie y esforzarse crítica y activamente por acercarse más a la verdad.”

Erich Fromm

Entre 1920 y 1930 diversos intelectuales comenzaron a centrar su atención en los mass media, analizando sobre todo la forma en que su influencia trazaba cambios importantes en el comportamiento humano. Fue así como en 1928 el sociólogo estadounidense William I. Thomas publicó en su libro: “The Child in America; behavior problems and programs” lo que posteriormente sería conocido como el Teorema de Thomas o de la profecía autocumplida, y el cual se aplica a un sinfín de situaciones, tanto sociológicas como políticas.

Dicho Teorema se centra en una de las capacidades más importantes de la evolución animal: la toma de decisiones desde el interior en lugar de aceptar las que impone el exterior; y es que para Thomas previamente a todo acto de conducta autodeterminado existe un estado de examen y deliberación […] y no sólo los actos concretos dependen de la definición de la situación, sino que gradualmente toda una política de vida o la personalidad del individuo provienen de una serie de significados de este estilo.

Es decir, que: “Cuando se define una determinada imagen de la realidad, esa imagen tiene efectos reales”; como ejemploel sociólogo identificó que diversos menores no conflictivos acababan siéndolo solamente porque se les habían asignado ciertas características que con el paso del tiempo ellos asumían, repetían y adquirían.

Sin embargo, mediante este texto trataré de asociar la Teoría de la profecía autocumplida a un fenómeno que comenzó su auge en las elecciones estadounidenses de 2016; y es que el internet y la Inteligencia Artificial (IA) se han convertido en aliados potentes cuando de fabricar realidades se trata.

Es así como actualmente mucha de la información a la que accedemos en internet es el resultado de la puesta en marcha de algoritmos de inteligencia que buscan probar que con cada clic que nuestras preferencias quedan registradas y sirven como patrones que al final son explotados hasta que la población objetivo reaccione como ellos desean.

La RAND Corporation decidió basarse en dicha Teoría y preguntó a los estadounidenses su opinión sobre el “Choque de Dakota del Norte”, a lo que al menos un tercio afirmó que creían que el gobierno ocultaba información sobre el tema, sin embargo, dicha conspiración fue inventada por los propios investigadores y el accidente nunca sucedió, lo que sirvió como muestra para resaltar los defectos y esquemas de pensamiento individuales que los humanos llevan consigo al decidir qué es o no real.

En nuestra actualidad el internet y la IA han llevado la batalla cibernética a nuevos niveles, y hoy no sólo basta con alterar los acontecimientos o contar verdades a medias, sino que se ha utilizado la construcción de realidades donde la gobernanza, la política y la violencia que ahora dependen en gran medida de la opinión pública, la percepción masiva y la participación ciudadana se han convertido en proyectos suscritos a interpretaciones subjetivas, pero también sumamente influidas por opiniones replicadas por bots en el mundo virtual.

Al contrario de lo que podríamos pensar los seres humanos, siempre hemos sido vulnerables a ser engañados, provocados, condicionados y/o manipulados, por lo que el asignar determinados “conceptos” a personas, instituciones o programas generarán que a largo plazo nuestra realidad se vea distorsionada, pero sobre todo adecuada a dichos esquemas mentales establecidos por nuestra propia cosmovisión personal.

Hoy ya no se hace de forma manual, sino que de acuerdo al texto Artificial Intelligence and the Manufacturing of Reality una de las tecnologías que ayuda a que los deepfakes sean tan realistas es el uso de una clase de sistemas de aprendizaje automático llamados redes generativas de confrontación (GAN); las cuales tienen dos modelos de redes neuronales, un generador y un discriminador. El generador toma datos de entrenamiento y aprende cómo recrearlos, mientras que el discriminador intenta distinguir los datos de entrenamiento de los datos recreados producidos por el generador.

Es así como en nuestro contexto debemos considerar que mucho de lo que vemos, encontramos y a veces incluso buscamos ha sido creado y diseñado específicamente para un mercado objetivo: nosotros; y desafortunadamente este nicho es a gran escala, por lo que la capacidad del grupo para convertir en reales situaciones que suponemos como tales significa que adecuemos nuestro comportamiento.

En un futuro cercano los algoritmos impulsados por la IA que hoy nos envían anuncios de automóviles o de tecnología en un par de años podrían ser bots que conversen con nosotros, o mejor dicho que, experimenten, para probar qué contenido provocará las reacciones más fuertes y confeccionar así una realidad a la medida.

*Analista en temas de Seguridad, Justicia, Política y Educación.

*Si deseas recibir mis columnas en tu correo electrónico, te puedes

suscribir a mi lista en el siguiente vínculo: https://eepurl.com/Ufj3n