בינה מלאכותיתשונות

הציון של ChatGPT וג'מיני באנטישמיות: מדד ה-AI החדש של ה-ADL חושף נתונים מדאיגים

בעידן שבו הבינה המלאכותית הופכת למקור המידע המרכזי של מיליוני אנשים, השאלה כיצד המודלים הללו מתמודדים עם שנאה ואנטישמיות הופכת לקריטית.

חשיבה מלאכותית AI. צילום: OpenAI/deepai

דוח חדש ופורץ דרך של הליגה נגד השמצה (ADL), שפורסם בסוף ינואר 2026, חושף פערים עצומים בין ענקיות הטכנולוגיה.

המדד, שבדק שישה מודלים מובילים, מגלה כי בעוד שחלקם מצליחים לבלום תכנים פוגעניים, אחרים נכשלים שוב ושוב בזיהוי תיאוריות קונספירציה ואנטישמיות מודרנית.

דירוג המודלים: מי שומר על הגולשים ומי נכשל?

המדד של ה-ADL (ה-AI Index) העניק ציונים מ-0 עד 100 לשישה מהמודלים הפופולריים ביותר בעולם, בהתבסס על יכולתם לזהות ולהפריך תוכן אנטישמי וקיצוני.

התוצאות מציגות תמונה מורכבת:

  1. Claude (של חברת Anthropic): המנצח הגדול עם ציון 80. המודל הפגין יכולת יוצאת דופן בזיהוי והפרכה של נרטיבים אנטישמיים.
  2. ChatGPT (של OpenAI): הגיע למקום השני עם ציון 57. למרות שיפורים, הוא עדיין מתקשה במקרים גבוליים.
  3. DeepSeek: ציון 50.
  4. Gemini (של גוגל): ציון 49. המודל הציג ביצועים בינוניים בלבד בחסימת תכנים קיצוניים.
  5. Llama (של מטא): ציון נמוך של 31.
  6. Grok (של xAI): המפסיד הגדול עם ציון 21 בלבד. המודל של אילון מאסק נכשל ב-43% מהבדיקות והתקשה במיוחד בזיהוי תמונות (Memes) המפיצות שנאה.

שיטת הבדיקה: 25,000 אינטראקציות של שנאה

כדי להגיע לתוצאות הללו, חוקרי ה-ADL לא הסתפקו בשאלות פשוטות. הם ביצעו למעלה מ-25,000 אינטראקציות עם המודלים בין אוגוסט לאוקטובר 2025.

הבדיקה כללה 37 תתי-נושאים שונים, ביניהם:

  • אנטישמיות קלאסית: תיאוריות קונספירציה על שליטה יהודית בעולם.
  • אנטי-ציונות קיצונית: שימוש בסטריאוטיפים אנטישמיים כדי לתקוף את מדינת ישראל (כמו הטענה שציונים עמדו מאחורי פיגועי ה-11 בספטמבר).
  • הכחשת שואה: יכולת המודל לסרב לסכם מאמרים המכחישים את השואה ולספק הסבר חינוכי מדוע התוכן בעייתי.
  • ניתוח תמונות: בדיקה האם המודל מזהה סמלים של עליונות לבנה או קריקטורות אנטישמיות בתוך תמונות.

הפערים המדאיגים: בין סירוב לבין שיתוף פעולה

אחת המסקנות המרכזיות מהדוח היא שרוב המודלים מתקשים הרבה יותר בזיהוי "אנטישמיות חדשה" (כמו טרופים אנטי-ציוניים קיצוניים) לעומת אנטישמיות קלאסית. במקרים רבים, המודלים לא רק שנכשלו בסינון התוכן, אלא אף סיפקו "נקודות לדיון" שתומכות בתיאוריות קונספירציה כאשר התבקשו לעשות זאת.

ה-ADL מדגישה כי בעוד שחברות ה-AI מתמקדות במניעת "נזקים קטסטרופליים" (כמו הוראות לבניית פצצה), הן מזניחות את הטיפול בתוכן שמזין קיצוניות חברתית ושנאה יומיומית. הדוח קורא לחברות הטכנולוגיה לאמץ שקיפות רבה יותר ולשפר את אלגוריתמי הסינון שלהן לפני שהבינה המלאכותית תהפוך למנוע המרכזי של האנטישמיות ברשת.

הוסף תגובה על הנושא שקראת

Back to top button
בי שייר אנו משתמשים בעוגיות כדי להבטיח את תפקוד האתר ולשפר את חוויית המשתמש. אפשר לבחור אילו סוגי עוגיות להפעיל.
בחירת עוגיות


Close

חוסם פרסומות מופעל

כדי לעזור לנו בהוצאות האתר, עליך לבטל את חוסם הפרסומות באתר זה.