Disculpad el título tan melodramático. ¿Conocéis a esas personas que se ponen gorritos de papel de aluminio en la cabeza para evitar que controlen sus pensamientos?, pues son los artífices de teorías sobre la muerte de internet. Podéis investigar más sobre Dead-internet theory. Incluso periodistas de renombre, como Kaitlyn Tiffany, ven algo de cierto en ello.
Pero como siempre digo, usemos los hechos y el pensamiento crítico para entender y contextualizar esta situación.
La teoría se basa en que Internet no muere porque quede inaccesible, sino porque el mayor uso de la misma se hace de manera artificial o automática a través de bots. Y ahí apoyo a Kaitlyn.
Llevo más de tres lustros trabajando en marketing digital, y puedo constatar la cantidad de tráfico generado artificialmente que existe. Prueba de ello es que disponemos de listados de robots que podemos bloquear para evitar la distorsión de nuestra analítica web. Es el pan nuestro de cada día.
Pero antes de nada, aclaremos conceptos. Un robot no es más que un algoritmo: un conjunto de líneas que se ejecutan y generan un resultado concreto. En este caso, simular una navegación por Internet. De momento estamos a salvo de la aniquilación, aunque no de otros peligros como la desinformación o manipulación.
Por poner algunos ejemplos, en las elecciones a la Casa Blanca de 2016, se identificaron campañas de Facebook generadas por bots rusos para sembrar desinformación en los estadounidenses e influir en las votaciones. También se detectó algo similar en la misma plataforma durante el año 2021 contra las campañas de vacunación. Cuando Elon Musk formalizó su propuesta de compra de Twitter, comentó que cerca del 20% de los perfiles podrían ser falsos o corresponder a bots. Recordemos que se trata de una red social que a día de hoy tiene más de 300 millones de usuarios mensuales.
Según el estudio de Barracuda y Help Net Security (septiembre 2021), la estimación es que sólo el 36% del tráfico de Internet proviene de humanos. Un 25% del tráfico corresponde a robots de grandes empresas (necesario para ofrecer sus servicios) como Google, Bing, Facebook o Twitter. El 39% restante estaría asociado a robots malos, que es el epígrafe bajo el que asignan todo el tráfico automatizado cuyo objetivo es robar datos, emular tráfico o buscar fallos de seguridad.
¿Cuál es la guinda a este problema?, que dentro de nada estaremos también en el vértice de la generación automática de contenido. Hasta ahora el problema se limitaba al consumo artificial de información, a corto plazo, la creación y el consumo irán de la mano.
¿Dónde nos deja a las personas?, ¿cómo seremos capaces de identificar y discernir la realidad de lo artificial?, ¿se potenciarán las fake news?. No son pocas las preguntas que suscita esta nueva realidad, aunque me temo que tendremos que ir poco a poco para conocer las respuestas.
Ya podemos ver un atisbo de lo que está ocurriendo cuando se abusa de la generación automática en portales de imágenes como Shutterstock o Getty, que partir de ahora no aceptarán imágenes generadas por herramientas de inteligencia artificial como DALL-E o Midjourney.
Los motores de búsqueda son también conscientes de esta realidad y ya comienzan a prepararse. Google lanzó la actualización Content Helpful Update para potenciar los contenidos de calidad, no obstante, han admitido que no tendrán problema en aceptar contenido generado artificialmente si aporta valor a sus usuarios. Nuevamente, un algoritmo tomará esa decisión. Y es que es imposible poner puertas al campo. Esta es la nueva realidad a la que nos enfrentamos y será difícil contenerla.
Casualmente, la semana pasada, KFC Alemania se disculpó por haber hecho la peor campaña de marketing en su historia. KFC utiliza notificaciones push automatizadas para llegar a los consumidores con contenidos generados por bots relacionados con las celebraciones nacionales. Pues el tenaz robot quiso celebrar la conmemoración del Kristallnacht o más conocida como noche de los cristales rotos, con unas alitas fritas. Problemas de los automatismos.