El 16 de septiembre, Google actualizó la descripción de su útil sistema de contenidos. El sistema está diseñado para ayudar a los administradores de sitios web a crear contenidos que tengan un buen rendimiento en el motor de búsqueda de Google.
Google no revela todos los medios y formas que emplea para "clasificar" los sitios, ya que esto constituye el núcleo de su modelo de negocio y de su preciada propiedad intelectual, pero sí ofrece consejos sobre lo que debe figurar y lo que no.
Hasta el 16 de septiembre, uno de los factores en los que se centraba Google era quién escribía el contenido. Daba más peso a los sitios que creía que habían sido escritos por humanos reales en un esfuerzo por elevar la calidad de los contenidos escritos por humanos frente a los que probablemente habían sido escritos con una herramienta de inteligencia artificial (IA) como ChatGPT.
En la descripción del sistema de contenido útil, se hace hincapié en este punto: "El sistema de contenido útil de la Búsqueda de Google genera una señal que utilizan nuestros sistemas de clasificación automatizados para garantizar que los usuarios vean contenido original y útil escrito por personas, para personas, en los resultados de búsqueda".
Sin embargo, en la última versión, los lectores con ojos de lince detectaron un cambio sutil:
"El sistema de contenido útil de la Búsqueda de Google genera una señal utilizada por nuestros sistemas de clasificación automatizados para garantizar mejor que la gente vea contenido original y útil creado para la gente en los resultados de búsqueda".
Parece que el contenido escrito por personas ya no es una preocupación para Google, y esto fue confirmado por un portavoz de Google, que dijo a Gizmodo: "Esta edición fue un pequeño cambio [...] para alinearlo mejor con nuestra orientación sobre el contenido generado por IA en la Búsqueda. La búsqueda se preocupa más por la calidad del contenido que clasificamos que por cómo se ha producido. Si el contenido se produce únicamente con fines de clasificación (ya sea a través de humanos o de automatización), eso violaría nuestras políticas de spam, y lo abordaríamos en la Búsqueda como hemos hecho con éxito con el contenido producido en masa durante años".
Esto, por supuesto, plantea varias preguntas interesantes: ¿cómo define Google la calidad? ¿Y cómo sabrá el lector la diferencia entre un artículo generado por un humano y otro por una máquina, y le importará?
Mike Bainbridge, cuyo proyecto Don't Believe The Truth analiza la cuestión de la verificabilidad y la legitimidad en la web, declaró a Cointelegraph:
"Este cambio de política es asombroso, para ser francos. Lavarse las manos en algo tan fundamental es impresionante. Abre las compuertas a una oleada de información no contrastada y sin fuentes que recorre Internet".
La verdad versus la IA
En cuanto a la calidad, unos minutos de investigación en Internet muestran qué tipo de directrices utiliza Google para definir la calidad. Los factores incluyen la longitud del artículo, el número de imágenes y subtítulos incluidos, la ortografía, la gramática, etc.
También profundiza y se fija en la cantidad de contenido que produce un sitio y con qué frecuencia para hacerse una idea de lo "serio" que es el sitio web. Y eso funciona bastante bien. Por supuesto, lo que no hace es leer realmente lo que está escrito en la página y evaluar su estilo, estructura y precisión.
Cuando ChatGPT irrumpió en escena hace casi un año, se hablaba de su capacidad para crear textos bellos y, sobre todo, convincentes sin apenas datos.
A principios de 2023, un bufete de abogados de Estados Unidos fue multado por presentar una demanda que contenía referencias a casos y legislación que sencillamente no existen. Un abogado muy perspicaz se limitó a pedir a ChatGPT que creara una presentación enérgica sobre el caso, y así lo hizo, citando precedentes y acontecimientos que se inventó de la nada. Tal es el poder del software de IA que, para el ojo inexperto, los textos que produce parecen totalmente auténticos.
Entonces, ¿qué puede hacer un lector para saber que la información que ha encontrado o el artículo que está leyendo han sido escritos por un ser humano? Existen herramientas para comprobarlo, pero su funcionamiento y precisión son un misterio. Además, es poco probable que el internauta medio verifique todo lo que lee en Internet.
Hasta ahora existía una fe casi ciega en que lo que aparecía en la pantalla era real, como el texto de un libro. Que alguien, en algún lugar, verificaba todo el contenido, garantizando su legitimidad. Y aunque no fuera muy conocido, Google también hacía eso por la sociedad, pero ya no.
En ese sentido, ya existía una fe ciega en que Google era lo suficientemente bueno como para detectar lo que es real y lo que no y filtrarlo en consecuencia, pero ¿quién puede decir lo bueno que es haciéndolo? Puede que una gran cantidad de los contenidos que se consumen ya estén generados por IA.
Dadas las constantes mejoras de la IA, es probable que la cantidad vaya en aumento, lo que podría difuminar las líneas y hacer casi imposible diferenciar unos de otros.
Bainbridge añade: "La trayectoria de Internet es peligrosa: una batalla campal en la que el teclado será más poderoso que la espada". Sube al desván y desempolva las enciclopedias; te van a resultar muy útiles".
Google no ha respondido a la petición de Cointelegraph de hacer comentarios antes de la publicación.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión