El experto en fitness: «¿28 días? No tienes ninguna posibilidad».
En una playa de North Tyneside, el instructor de fitness David Fairlamb está poniendo a prueba a casi 40 personas de todas las edades en una sesión de entrenamiento en grupo.
Ha trabajado en la industria del fitness durante 30 años, mucho antes de las redes sociales, y mucho antes de la inteligencia artificial.
Fairlamb, de 54 años, cree que la IA tiene su lugar en los programas de entrenamiento físico y nutrición, pero afirma que no puede reemplazar por completo el entrenamiento personalizado.
«No hay nada que supere a esa persona real, esa conexión genuina, esa responsabilidad», afirma.
Cuando se le muestran los anuncios generados por IA que infringen las normas publicitarias, su reacción es inmediata.
«Es algo totalmente erróneo. Es muy engañoso. Y es muy preocupante para los niños pequeños», afirma.
«Estos anuncios hablan de transformaciones en 28 días. Llevo 30 años en esto y les digo ahora mismo: eso simplemente no sucede. No tienen ninguna posibilidad.»
Fairlamb comenzó recientemente a trabajar junto a su hija Georgia Sybenga, de 25 años, quien afirma que incluso las personas que crecieron rodeadas de redes sociales tienen dificultades para distinguir entre la realidad y la ficción.
«A veces yo misma me lo cuestiono», dice. «En algunos casos, realmente no se puede saber».
Ambos temen que la exposición constante a cuerpos idealizados y artificiales pueda dañar la confianza, especialmente entre los jóvenes.
«Piensan: ‘Podría verme así en 30 días'», dice Fairlamb. «Pero ese cuerpo puede que ni siquiera sea real. Para los jóvenes, por su salud mental, es realmente preocupante».
Sybenga también advierte que los programas de entrenamiento físico generados por IA no ofrecen una visión completa.
«No tiene en cuenta las lesiones ni las afecciones médicas, así que… podrías lesionarte», afirma.
Dónde fallan los anuncios
¿Cuáles son las normas sobre las redes sociales?
Las empresas de redes sociales afirman que el contenido generado por IA siempre debe estar etiquetado, pero la BBC encontró múltiples ejemplos en los que las advertencias estaban ocultas, no eran claras o simplemente no aparecían.
Presentamos nuestros hallazgos a Meta y TikTok, pero ambas compañías declinaron hacer comentarios.
Sin embargo, TikTok afirma haber etiquetado más de 1.300 millones de vídeos generados por IA hasta la fecha, mientras que Meta evalúa si algo ha sido creado por IA basándose en indicadores que otras empresas incluyen en sus herramientas de creación.
Muchos usuarios con los que habló la BBC dijeron que agradecerían la opción de desactivar por completo el contenido generado por inteligencia artificial.
Meta y TikTok declinaron decir si esta opción estaba siendo considerada.
Pero la cantidad de contenido generado por IA aumenta constantemente.
«Creo que la economía de las redes sociales y el tipo de economía de la atención en la que vivimos se prestan a un mayor contenido basado en IA», afirma el profesor Miah.
«Es evidente que resulta útil en muchos sentidos. Pero cuando induce a error a la gente y les genera falsas expectativas… es ahí donde quizás deba intervenir la regulación.»