|
||||
|
||||
תראה, בסה"כ הג'פטפוט לומד מתגובות של אנשים אמיתיים שבבסיס הנתונים שלו. אולי גם הוא חושש מתגובתם של המאמינים הרלוונטיים? |
|
||||
|
||||
כמובן, וזה מציף בדיוק את הבעיה: OpenAI הולכת ומשתלטת על האוירה התרבותית, לפחות במערב, בלי שמישהו נתן לה רישיון ובלי שום פיקוח. כאילו מה שהרשתות החברתיות מפייס ועד טיקטוק עושות לחברה לא מספיק, עכשיו גם ג'פטו, שכוחו גדול מהן בהרבה, מצטרף לחגיגה. אין לי שום רעיון איך להתמודד עם הבעיה, וגם בעיית ה- deep fake שבעתיד הקרוב תאיין את מה שעוד נשאר מאמינות הידיעות החדשותיות, היא בעיה עצומה. |
|
||||
|
||||
אל תתנו לגשמים להטעות אתכם, הסנוניות מתרבות והולכות. |
|
||||
|
||||
אני חושב שזה מאוד לא סביר שזאת תוצאה של לימוד או אינטראקציה עם משתמשים. מאוד סביר להניח שהתוצאה הזאת קשורה לחוקים שהוכנסו באופן ידני על ידי אנשי OpenAI כדי להמנע מתוצאות ״לא רצויות״ עם פוטנציאל ליצירת טריגרינג ויראלי1 ו-PR לא נעים לחברה. _________________ 1 ל״תראו מה chatgpt אמר על מוסלמים״ יש פוטנציאל ויראליות הרבה יותר חזק מ״תראו איך ג׳פטו יצא פוליטיקלי קורקט״. |
|
||||
|
||||
עכש"ז דובר על כך שה- reinforced learning פגע באיכות של חלק מתגובותיו של ג'פטו. קשה לי להאמין שמישהו ינסח ביודעין חוק שמתייחס לאיסלם באופן שונה מלדתות אחרות, אלא אם אותו מישהו חי בטהרן. לאפליה כזאת הרבה יותר קל להסתנן בחשאי. |
|
||||
|
||||
לי זה נראה לגמרי טירביאלי שכן הכניסו, לחלוטין ביודעין וכוונה תחילה, חוק שמתייחס ספציפית לאיסלאם. לא צריך לחיות בטהרן כדי לחשוב בצורה הזאת. מספיק לגור בקליפורניה. |
|
||||
|
||||
וכשאני אומר חוק, אני לא מתכוון לכתיבת שורת קוד עם "if" שמחפש משהו בטקסט. בטוח יש איפשהו קונפיגורציה עם רשימה של נושאים/מושגים רגישים ומשקלות עם פרמטרים כאלו או אחרים. אני די בטוח שחברות מסחריות (כמו openai) מבצעות גם כיול ידני של המוצר, מעבר לתהליכי הלמידה והפידבק של משתמשים. מערכות שמתבססות רק על למידה אוטומטית + פידבק משתמשים מתחרפנות מהמפגש עם המשתמשים מאוד מאוד מהר. |
חזרה לעמוד הראשי | המאמר המלא |
מערכת האייל הקורא אינה אחראית לתוכן תגובות שנכתבו בידי קוראים | |
RSS מאמרים | כתבו למערכת | אודות האתר | טרם התעדכנת | ארכיון | חיפוש | עזרה | תנאי שימוש | © כל הזכויות שמורות |