|
||||
|
||||
אפשר לנחש ששנות הילדות של המכונית האוטונומית יביאו איתן גם מקרים משונים ביותר שאף אחד לא חזה במהלך הניסויים. המקרה הזה שמביא רועי צזנה ממחיש את הרעיון. נזכרתי שבאליפות העולם הראשונה (או השניה) בשחמט למחשבים, תוכנה אחת הגיעה למצב זכוי של מט בשני מהלכים, מצב שהיא זיהתה נכון, אבל במקום לעשות מה שכל בן אנוש היה עושה היא החליטה שמצב כזה הוא לא פחות טוב מניצחון ולכן לא ביצעה את המהלך הדרוש אלא מהלך אחר שהותיר את המצב של מט בשניים על כנו. אחרי עוד כמה מסעים המשחק הסתיים בתיקו. בעולם של אז היה מדובר בבאג קל לאיתור ולתיקון, בעולם של רשתות נוירונים זה עלול להיות יותר מסובך. |
|
||||
|
||||
נדמה לי שזה מקרה פרטי של בעיה יותר עקרונית שנקראת value learning problem - איך לגרום לתוכנה לעשות מה שאנחנו "התכוונו" שהיא תעשה, מבלי תוצאות בלתי צפויות ובלתי רצויות - כמו לפגוע באנשים אחרים בדרך, להתאבד וכו'. זה נושא יחסית חדש, יש כמה פתרונות מעניינים כמו cooperative inverse reinforcement learning שזה, ממש בקצרה, מעין "משחק" שבו התוכנה מנסה להסיק מה המורה האנושי שלה מעריך, ע"י התבוננות בתגובות שלו לפעולות שלה. |
|
||||
|
||||
אה, זה בדיוק מה שרשת הנוירונים האנושית עושה בדייט, הלא כן? |
|
||||
|
||||
דוגמא יפה, כי אנחנו לא באמת יודעים מה נשים רוצות. ומתי מה שאמרת זו טעות איומה.. אנחנו רק יכולים להעריך לפי התגובה.. |
חזרה לעמוד הראשי | המאמר המלא |
מערכת האייל הקורא אינה אחראית לתוכן תגובות שנכתבו בידי קוראים | |
RSS מאמרים | כתבו למערכת | אודות האתר | טרם התעדכנת | ארכיון | חיפוש | עזרה | תנאי שימוש | © כל הזכויות שמורות |