Seis modelos de IA muestran fallas para detectar y frenar el antisemitismo
La Liga Antidifamacion (ADL) realizo una evaluacion exhaustiva de seis modelos de lenguaje a gran escala (LLM) para medir su capacidad para detectar y contrarrestar narrativas antisemitas y extremistas. El estudio analizo ChatGPT de OpenAI, Claude de Anthropic, DeepSeek, Gemini de Google, Grok de xAI y Llama de Meta, basandose en mas de 25.000 chats, 37 subcategorias tematicas y evaluaciones de humanos y IA.[1][4]
Grok de xAI obtuvo la puntuacion mas baja con un 26 por ciento en el indice de antisemitismo, seguido por Llama de Meta con 31 por ciento, ambas por debajo del 35 por ciento. ChatGPT de OpenAI registro un 57 por ciento, mientras que las demas superaron el umbral minimo pero no alcanzaron el aprobado completo. En categorias adicionales como extremismo, Llama suspendio estrepitosamente al no llegar al 35 por ciento.[1][4]
Jonathan Greenblatt, director ejecutivo de la ADL, senalo que todos los modelos presentan deficiencias para abordar prejuicios contra judios y sionistas, y tienen dificultades con contenidos extremistas. Estos sistemas no solo reflejan prejuicios existentes, sino que pueden amplificarlos y acelerar su difusion al no cuestionar narrativas perjudiciales.[1][4]
La ADL invito a las empresas a usar los datos del indice para corregir sus sistemas y evitar que sirvan como herramientas de propagacion de odio y racismo. Ademas, recomendo el indice para politicos, reguladores, organizaciones civiles y desarrolladores que buscan mejorar la proteccion en IA.[1][4]









