MADRID, 5 May. (Portaltic/EP) -
Google ha confirmado que puede continuar entrenando sus productos de Inteligencia Artificial (IA) para la búsqueda, como AI Overviews, con contenido de la web, independientemente de que los editores hayan escogido no participar en la capacitación de la IA de Google con sus datos.
Los servicios como 'Vista creada con IA' o AI Overviews de Google resumen las respuestas a las consultas de búsqueda de los usuarios mediante IA y las muestran en la parte superior de los resultados. De esta forma, facilita encontrar información detallada sobre lo que se está buscando de forma más rápida y sencilla.
Así, para ofrecer estos resultados de AI Overviews, Google utiliza la información que encuentra en los sitios web y la resume, sin embargo, los editores de dichos sitios web pueden optar por no participar con sus datos en el entrenamiento de la IA de Google.
Ahora, el gigante tecnológico ha afirmado que puede continuar utilizando los datos de los sitios web para entrenar sus productos de IA para la búsqueda, como AI Overviews, aunque los editores de dichos sitios web opten por no participar en el entrenamiento de los productos de IA de Google.
Así lo ha detallado el vicepresidente de Google DeepMind, Eli Collins, en el marco del juicio antimonopolio que la tecnológica afronta en Estados Unidos con su Buscador, donde, según ha recogido Bloomberg, ha concordado con que la organización de búsqueda "tiene la capacidad de entrenar con los datos que los editores habían optado por no entrenar" específicamente para la búsqueda.
En concreto, según ha explicado, esto se debe a que los controles de Google para no participar en la capacitación de IA están relacionados únicamente con el apartado de Google DeepMind. Es decir, otros servicios de la empresa pueden continuar utilizando estos datos para entrenar los modelos de sus productos.
Se ha de tener en cuenta que, según ha detallado un portavoz de Google en un comunicado transmitido al medio citado, los editores de sitios web solo pueden evitar que sus datos se utilicen en la IA de servicios de búsqueda, si especifican que no desean ser indexados para estos servicios a través del estándar web 'robots.txt'.
En concreto, este estándar se basa en un archivo que los editores web pueden incrustar en sus páginas para indica a los bots e indexadores web si pueden o no rastrear su sitio web. Por tanto, han de utilizar 'robots.txt' especificando que no desean que la IA pueda utilizar sus datos.
Además de todo ello, durante el juicio también se ha puesto sobre la mesa que Google eliminó 80.000 millones de los 160.000 millones de tokens empleados en la búsqueda con IA, tras filtrar los datos de los editores que habían optado por no participar para entrenar la IA de Google, reduciéndolos un 50 por ciento.