Mises Wire

Separando información de desinformación: amenazas de la revolución IA

La inteligencia artificial (IA) no puede distinguir la realidad de la ficción. Tampoco es creativa ni puede crear contenidos novedosos, sino que repite, reempaqueta y reformula lo que ya se ha dicho (pero quizá de formas nuevas).

Estoy seguro de que alguien discrepará con esto último, quizá señalando el hecho de que la IA puede generar claramente, por ejemplo, nuevas canciones y letras. Estoy de acuerdo, pero no lo entiendo. La IA produce una letra de canción «nueva» únicamente a partir de los datos de letras de canciones anteriores y luego utiliza esa información (los patrones descubiertos inductivamente en ella) para generar lo que a nosotros nos parece una canción nueva (y puede muy bien serlo). Sin embargo, no hay arte ni creatividad. Es sólo un refrito estructural de lo que ya existe.

Por supuesto, podemos debatir hasta qué punto los humanos pueden tener pensamientos verdaderamente novedosos y si el aprendizaje humano puede basarse única o principalmente en la mímica. Sin embargo, aunque estuviéramos de acuerdo en que todo lo que sabemos y hacemos es mera reproducción, los humanos tenemos una capacidad limitada para recordar con exactitud y cometemos errores. También rellenamos huecos con lo que subjetivamente (no objetivamente) tiene sentido para nosotros (¿alguien quiere el test de Rorschach?). Incluso en este escenario tan limitado, con el que no estoy de acuerdo, los humanos generamos novedad más allá de lo que la IA es capaz de hacer.

Tanto la incapacidad de distinguir los hechos de la ficción como la vinculación inductiva a patrones de datos existentes son problemas que pueden paliarse mediante programación, pero que están abiertos a la manipulación.

Manipulación y propaganda

Cuando Google lanzó su IA Gemini en febrero, inmediatamente quedó claro que la IA tenía una agenda woke. Entre otras cosas, la IA impulsó los ideales de diversidad woke en todas las respuestas imaginables y, entre otras cosas, se negó a mostrar imágenes de personas blancas (incluso cuando se le pidió que produjera imágenes de los Padres Fundadores).

El gurú tecnológico e inversor de Silicon Valley Marc Andreessen lo resumió en X (antes Twitter): «Sé que es difícil de creer, pero la IA de las grandes tecnológicas genera los resultados que genera porque ejecuta con precisión la agenda ideológica, radical y sesgada de sus creadores. El resultado aparentemente extraño es 100% intencionado. Funciona tal y como fue diseñada».

En efecto, estas IA tienen un diseño que va más allá de los motores básicos de categorización y generación. Las respuestas no son perfectamente inductivas o generativas. En parte, esto es necesario para que la IA sea útil: se aplican filtros y reglas para asegurarse de que las respuestas que genera la IA son apropiadas, se ajustan a las expectativas del usuario y son precisas y respetuosas. Dada la situación legal, los creadores de IA también deben asegurarse de que la IA no viola, por ejemplo, las leyes de propiedad intelectual o incurre en incitación al odio. La IA también está diseñada (dirigida) para que no se vuelva loca ni ofenda a sus usuarios (¿recuerdas a Tay?).

Sin embargo, como esos filtros se aplican y el «comportamiento» de la IA ya está dirigido, es fácil llevarlo un poco más lejos. Después de todo, ¿cuándo una respuesta es demasiado ofensiva frente a ofensiva pero dentro de los límites del discurso admisible? Es una línea fina y difícil que debe especificarse programáticamente.

También abre la posibilidad de dirigir las respuestas generadas más allá de la mera garantía de calidad. Con los filtros ya instalados, es fácil hacer que la IA haga declaraciones de un tipo específico o que empujen al usuario en una dirección determinada (en términos de hechos, interpretaciones y visiones del mundo seleccionados). También se puede utilizar para dar a la IA una agenda, como sugiere Andreessen, por ejemplo hacerla implacablemente despierta.

Así, la IA puede utilizarse como una eficaz herramienta de propaganda, algo que han reconocido tanto las empresas que las crean como los gobiernos y organismos que las regulan.

Desinformación y error

Los Estados llevan mucho tiempo negándose a admitir que se benefician de la propaganda y que la utilizan para dirigir y controlar a sus súbditos. Esto se debe en parte a que quieren mantener un barniz de legitimidad como gobiernos democráticos que gobiernan basándose en las opiniones de la gente (en lugar de moldearlas). La propaganda suena mal; es un medio de control.

Sin embargo, se dice que los enemigos del Estado —tanto nacionales como extranjeros— comprenden el poder de la propaganda y no dudan en utilizarla para provocar el caos en nuestra sociedad democrática, por lo demás impoluta. El gobierno debe salvarnos de tal manipulación, afirman. Por supuesto, rara vez se detiene en la mera defensa. Lo vimos claramente durante la pandemia de los cóvidos, en la que el gobierno, junto con las empresas de medios sociales, prohibió de hecho expresar opiniones que no fueran la línea oficial (véase Murthy v. Missouri).

La IA es tan fácil de manipular con fines propagandísticos como los algoritmos de las redes sociales, pero con la ventaja añadida de que no se trata sólo de la opinión de la gente y de que los usuarios tienden a confiar en que lo que informa la IA es cierto. Como vimos en el artículo anterior sobre la revolución de la IA, esta no es una suposición válida, pero no deja de ser una opinión muy extendida.

Si la IA puede ser instruida para que no comente ciertas cosas que los creadores (o reguladores) no quieren que la gente vea o aprenda, entonces está efectivamente «guardada en la memoria». Este tipo de información «no deseada» no se difundirá porque la gente no estará expuesta a ella, como mostrar sólo diversas representaciones de los Padres Fundadores (como Gemini de Google) o presentar, por ejemplo, sólo verdades macroeconómicas keynesianas para que parezca que no hay otra perspectiva. La gente no sabe lo que no sabe.

Por supuesto, nada quiere decir que lo que se presenta al usuario sea cierto. De hecho, la propia IA no puede distinguir los hechos de la verdad, sino que se limita a generar respuestas en función de las instrucciones y basándose únicamente en lo que se le ha transmitido. Esto deja mucho margen para tergiversar la verdad y puede hacer que el mundo crea mentiras descaradas. Por lo tanto, la IA puede utilizarse fácilmente para imponer el control, ya sea sobre un Estado, sobre los súbditos bajo su dominio o incluso sobre una potencia extranjera.

La verdadera amenaza de la IA

¿Cuál es entonces la verdadera amenaza de la IA? Como vimos en el primer artículo, los grandes modelos lingüísticos no evolucionarán (no pueden evolucionar) hacia la inteligencia general artificial, ya que no hay nada en la criba inductiva a través de grandes cantidades de información (creada por el ser humano) que dé lugar a la conciencia. Para ser francos, ni siquiera hemos descubierto qué es la conciencia, así que pensar que la crearemos (o que surgirá de algún modo de algoritmos que descubran correlaciones lingüísticas estadísticas en textos existentes) es bastante hiperbólico. La inteligencia general artificial sigue siendo hipotética.

Como vimos en el segundo artículo, la IA tampoco supone una amenaza económica. No hará a los humanos económicamente superfluos ni provocará un desempleo masivo. La IA es capital productivo, que por tanto tiene valor en la medida en que sirve a los consumidores contribuyendo a satisfacer sus deseos. Una IA mal utilizada es tan valiosa como una fábrica mal utilizada: tenderá a su valor de chatarra. Sin embargo, esto no significa que la IA no vaya a tener ningún impacto en la economía. Lo tendrá, y ya lo tiene, pero no es tan grande a corto plazo como algunos temen, y probablemente sea mayor a largo plazo de lo que esperamos.

No, la verdadera amenaza es el impacto de la IA en la información. Esto se debe en parte a que la inducción es una fuente inadecuada de conocimiento: la verdad y los hechos no son una cuestión de frecuencia o probabilidades estadísticas. Las pruebas y teorías de Nicolás Copérnico y Galileo Galilei serían tachadas de improbables (falsas) por una IA entrenada en todos los escritos (mejores y más brillantes) sobre el geocentrismo de la época. No hay progreso ni aprendizaje de nuevas verdades si sólo confiamos en teorías históricas y presentaciones de hechos.

Sin embargo, es probable que este problema pueda superarse mediante una programación inteligente (es decir, aplicando reglas —y limitaciones basadas en hechos— al problema de la inducción), al menos hasta cierto punto. El mayor problema es la corrupción de lo que presenta la IA: la desinformación, desinformación y desinformación que sus creadores y administradores, así como los gobiernos y grupos de presión, le ordenan crear como medio de controlar o dirigir la opinión pública o el conocimiento.

Este es el peligro real que señalaba la ya famosa carta abierta firmada por Elon Musk, Steve Wozniak y otros: «¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Debemos automatizar todos los trabajos, incluidos los satisfactorios? ¿Debemos desarrollar mentes no humanas que acaben superándonos en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización?».

Aparte de la referencia económicamente analfabeta a la «automatización de todos los puestos de trabajo», la advertencia es acertada. La IA no empezará a odiarnos como Terminator e intentará exterminar a la humanidad. No nos convertirá a todos en baterías biológicas, como en Matrix. Sin embargo, nos desinformará y engañará, creará el caos y puede hacer que nuestras vidas sean «solitarias, pobres, desagradables, brutales y cortas».

image/svg+xml
Note: The views expressed on Mises.org are not necessarily those of the Mises Institute.
What is the Mises Institute?

The Mises Institute is a non-profit organization that exists to promote teaching and research in the Austrian School of economics, individual freedom, honest history, and international peace, in the tradition of Ludwig von Mises and Murray N. Rothbard. 

Non-political, non-partisan, and non-PC, we advocate a radical shift in the intellectual climate, away from statism and toward a private property order. We believe that our foundational ideas are of permanent value, and oppose all efforts at compromise, sellout, and amalgamation of these ideas with fashionable political, cultural, and social doctrines inimical to their spirit.

Become a Member
Mises Institute