|
||||
|
||||
אני חושב שזה מאוד לא סביר שזאת תוצאה של לימוד או אינטראקציה עם משתמשים. מאוד סביר להניח שהתוצאה הזאת קשורה לחוקים שהוכנסו באופן ידני על ידי אנשי OpenAI כדי להמנע מתוצאות ״לא רצויות״ עם פוטנציאל ליצירת טריגרינג ויראלי1 ו-PR לא נעים לחברה. _________________ 1 ל״תראו מה chatgpt אמר על מוסלמים״ יש פוטנציאל ויראליות הרבה יותר חזק מ״תראו איך ג׳פטו יצא פוליטיקלי קורקט״. |
|
||||
|
||||
עכש"ז דובר על כך שה- reinforced learning פגע באיכות של חלק מתגובותיו של ג'פטו. קשה לי להאמין שמישהו ינסח ביודעין חוק שמתייחס לאיסלם באופן שונה מלדתות אחרות, אלא אם אותו מישהו חי בטהרן. לאפליה כזאת הרבה יותר קל להסתנן בחשאי. |
|
||||
|
||||
לי זה נראה לגמרי טירביאלי שכן הכניסו, לחלוטין ביודעין וכוונה תחילה, חוק שמתייחס ספציפית לאיסלאם. לא צריך לחיות בטהרן כדי לחשוב בצורה הזאת. מספיק לגור בקליפורניה. |
|
||||
|
||||
וכשאני אומר חוק, אני לא מתכוון לכתיבת שורת קוד עם "if" שמחפש משהו בטקסט. בטוח יש איפשהו קונפיגורציה עם רשימה של נושאים/מושגים רגישים ומשקלות עם פרמטרים כאלו או אחרים. אני די בטוח שחברות מסחריות (כמו openai) מבצעות גם כיול ידני של המוצר, מעבר לתהליכי הלמידה והפידבק של משתמשים. מערכות שמתבססות רק על למידה אוטומטית + פידבק משתמשים מתחרפנות מהמפגש עם המשתמשים מאוד מאוד מהר. |
חזרה לעמוד הראשי | המאמר המלא |
מערכת האייל הקורא אינה אחראית לתוכן תגובות שנכתבו בידי קוראים | |
RSS מאמרים | כתבו למערכת | אודות האתר | טרם התעדכנת | ארכיון | חיפוש | עזרה | תנאי שימוש | © כל הזכויות שמורות |