Una nueva investigación del Centro de Investigación sobre el Antisemitismo (ARC) de la organización Combat Antisemitism Movement (CAM) revela una realidad alarmante: los sistemas de recomendación de Instagram no solo alojan contenido de odio, sino que lo impulsan activamente hacia audiencias masivas.
Lo que comenzó como una observación de contenido problemático se ha convertido en la documentación de una infraestructura digital que amplifica teorías conspirativas y retórica deshumanizante contra el pueblo judío a una escala sin precedentes.
El estudio se centró en un periodo crítico de apenas 96 horas (del 19 al 22 de marzo de 2026). Durante este breve lapso, los investigadores identificaron 100 publicaciones inflamatorias que llegaron a los usuarios no a través de búsquedas activas, sino mediante las sugerencias automáticas de la propia plataforma.
El impacto de estas recomendaciones fue devastador:
Los mitos antisemitas difundidos a través de Instagram incluyen la promoción de viejas ideas satánicas sobre los judíos
(Imagen: CAM)
Uno de los hallazgos más llamativos del informe es la aparición de autoridades religiosas ficticias creadas con IA para validar narrativas de odio. El ARC identificó 12 «rabinos» generados por IA que, en conjunto, cuentan con 2,1 millones de seguidores.
El caso más prominente es el de «Rabbi Goldman», una cuenta con 1,4 millones de seguidores que utiliza un avatar digital para difundir mitos sobre el control judío del sistema financiero global. Algunos de sus videos superan los cinco millones de visualizaciones, demostrando cómo la tecnología se utiliza para dar una falsa apariencia de legitimidad a estereotipos antisemitas clásicos.
El análisis de contenido revela que no se trata de incidentes aislados, sino de un ecosistema narrativo estructurado que presenta a los judíos (frecuentemente bajo el eufemismo de «sionistas») como una fuerza oculta y malévola. Los temas recurrentes incluyen:
El informe advierte sobre el fenómeno del clustering algorítmico, en el que los usuarios son agrupados en entornos de contenido cerrados. Al alimentárseles repetidamente con las mismas ideas sin voces que las contradigan, se produce un proceso de normalización y radicalización que puede tener consecuencias letales en el mundo real.
Ante estos hallazgos, CAM sostiene que Meta no puede ser considerada un simple «anfitrión pasivo» de contenido. Al seleccionar y empujar estas narrativas a través de sus algoritmos, la plataforma asume una responsabilidad directa en la difusión del odio.
CAM exige a Meta tomar medidas radicales y urgentes con respecto a Instagram: en primer lugar, excluir categóricamente cualquier contenido de odio, teorías de conspiración deshumanizantes y perfiles de IA falsos de sus motores de distribución. También debe realizar una investigación interna exhaustiva y pública sobre el daño social causado por sus recomendaciones, y el alcance total de la exposición de los usuarios a este material.
El estudio de CAM concluye que el antisemitismo en Instagram no es una mera “falla del sistema” sino, en muchos sentidos, un producto de su propio diseño.
Redacción NMI con información de CAM.