|
||||
|
||||
אותה טעות גם באנגלית. אבל האמת היא שאני חושב שזה מאוד לא מרשים המשחק הזה בו שואלים מודל שפה איזו שאלה שהתשובה הנכונה עליה נראת לנו טריביאלית ומודל השפה חוזר עם תשובה לא נכונה. לדעתי, מבחנים מהסוג הזה מפספסים לחלוטין עד כמה מה שיש לנו פה הוא לא פחות מאשר מכרה זהב. זה כבר די ברור שאם נותנים לו דוגמה נגדית הוא מיד ״מבין״ שהוא אמר משהו לא נכון ואיפה הוא טעה. אבל רציתי לראות אם הוא יכול למצוא בעצמו, בלי שום עזרה ממני, את הטעות שלו. אז התחלתי שיחה חדשה ואחרי הטעות כתבתי לו את הדבר הבא: You claim it isn't possible. I claim I can come up with a simple counter example to what you just stated. Try to come up with a simple counter example to your statement on your own.
Chat GPT4: You are correct to challenge my initial response. Upon reconsideration, there can indeed be a counterexample to my initial claim. Let's consider a simple set of numbers where not all are identical, yet there is no number smaller than the median: Suppose we have a set of numbers: [4, 4, 4, 5] In this set, the numbers are not all identical (there's a 5 which is different from the 4s). The median in this case, for an even number of observations, is the average of the two middle numbers. Here, the two middle numbers are both 4, so the median is 4. In this set, there is no number smaller than 4. Hence, this serves as a counterexample where not all numbers are identical, yet there is no number smaller than the median. |
|
||||
|
||||
תודה. כל פעם אני מופתע מחדש מאיך שהבוט הזה יכול לתת כזאת תשובה מדויקת ומנוסחת בבהירות, דקה אחרי שהוא פולט שטויות מוחלטות (על אותה שאלה). |
|
||||
|
||||
אותי זה מאוד לא מפתיע. זה נראה לי צפוי ש״נכונות״ חייבת להתמך במשהו נוסף שהוא מחוץ לדומיין של מודל שפה. |
|
||||
|
||||
אין AI בלי AGI! |
|
||||
|
||||
כן, ברור. אבל מבחינתי לפחות, אילו לפני 10 שנים היו מספרים לי על הארכיטקטורה והשיטה שמאחורי ChatGPT, ואז מראים לי דוגמאות של הפעולה שלו, אני חושב שלא הייתי מאמין. כלומר זה מדהים כמה רחוק אפשר להגיע רק עם LLM. ההפתעה שלי היא מזה שמצד אחד הגענו כל כך רחוק, אבל מצד שני לא הגענו למקומות שעל פניו נראים "באותו המרחק". |
|
||||
|
||||
תחשוב על זה שהוא קצת כמו ביבי - על כל רצף מילים שהוא מקבל כשאלה, הוא מוציא רצף מילים שמתאים לניסוח המדויק של רצף המילים הקודם. ככזה, הרגישות שלו לניסוח היא כאוטית - ז''א גדולה לאין שיעור. מאחר ואתה נוטה להתייחס אליו כאל (בינה של) בן אדם, אתה מניח שיש מאחורי זה איזה מודל רובסטי של המציאות שלא אמור להיות רגיש לשינויים קטנים. ולא כך הוא. הוא לא ענה אחרת על אותה שאלה - הוא ענה על שאלה אחרת שמנוסחת על ידי רצף תווים אחר. |
|
||||
|
||||
אני מתחזק בדעתי שכרגע ג'פטו קרוב יותר לחדר הסיני מאשר לישות תבונית, ומהבחינה הזאת המעבר מגירסה 3 לגירסה 4 לא שינה הרבה. אני מקווה שהגירסה הבאה (אגב, אלטמן רמז שלא בטוח שהיא תיקרא gpt5) תעשה צעד משמעותי לכיוון התבוני. |
|
||||
|
||||
אני בהחלט מסכים, אבל חלק מהניסוי המחשבתי עם החדר הסיני היה הטיעון שאי אפשר להבדיל בינו לבין יישות תבונית, לא? |
|
||||
|
||||
לו ג'פטו היה ממש חדר סיני זה היה נכון, אלא שכידוע אנחנו רק מסתובבים ליד, כך שהשאלה היא לאיזה קוטב אנחנו, כלומר ג'פטו, קרובים יותר. שינוי של תו אחד בפתק שמגיע אל החדר עשוי/עלול לשנות את התשובה לגמרי, ומבחינה זאת הוא מזכיר את ג'פטו. ישות תבונית לא תיפול בפח דומה אלא במקרים נדירים ביותר. |
חזרה לעמוד הראשי | המאמר המלא |
מערכת האייל הקורא אינה אחראית לתוכן תגובות שנכתבו בידי קוראים | |
RSS מאמרים | כתבו למערכת | אודות האתר | טרם התעדכנת | ארכיון | חיפוש | עזרה | תנאי שימוש | © כל הזכויות שמורות |