בתשובה לשוטה הכפר הגלובלי, 12/02/25 13:02
Illusory truth effect 776881
להבנתי בינה מלאכותית לא סובלת מאותו כשל של חזרתיות על שקרים.
ליתר דיוק, ברור שמודל pretrained על next token prediction ישלים את הפרומט "מתוך המוח בני אדם משתמשים" עם ההמשך "ב 10%". אבל המודל "יודע" שזה מיתוס וכל מודל instruction tuned מודרני יסביר לך זאת עם כל פרומט שהוא.
זה נכון גם ב inference time, ולמודלים שמחפשים ברשת. למשל בדקתי את זה עם gpt4o על שקר ה border czar עם קמילה הריס שהופץ פה באתר.

כל זה בהנחת קיומו של מקור אמין המתאר את העובדות הנכונות.

בעיות הלוסינציה הן הרבה יותר טיפוסיות במקרים ש*אין* מידע סותר ו/או יש מעט מדי דוגמאות רלבנטיות לשני הכיוונים.
כדוגמא, בדקתי עם gpt4o את עניין הציטוט "הכי טוב שהערבים ישלטו פה" של הרב לנדו (אין מקור לכך, זה פייק כמעט בודאות). gpt4o טען שכן נאמר.

חזרה למאמר - בהקשר של עצות התחברתי יותר ל truth sandwich ו prebunking

חזרה לעמוד הראשי המאמר המלא

מערכת האייל הקורא אינה אחראית לתוכן תגובות שנכתבו בידי קוראים