|
||||
|
||||
למה לסכם את הלוגריתמים, ולא להכפיל אותם, או לחשב את הממוצע הגאומטרי, או סכום הריבועים, או המקסימום, או שתיים-שלוש פונקציות אחרות שאפשר להפעיל על זוג מספרים? ומהי התפלגות Zipf? |
|
||||
|
||||
אנו רוצים להתחשב גם בשכר הגבר וגם בשכר האשה - והפעולה הטבעית היא חיבור; כפי שנוגה הראתה, חיבור "פשוט" מוביל לעיוותים, הנובעים (למשל) מכך שמשכורת אחת "כפולה" נדירה בהרבה משתי משכורות "רגילות". סיכום לוג התדירות מאפשר לנו לקבל ערך ההולך וגדל ככל שמשכורתו של אחד הצדדים גדלה, אבל לוקח בחשבון את "יוקרתה" של המשכורת הכפולה. הנחתי התפלגות Zipf עבור המספרים שבחרתי לדוגמאות, ולא כהנחה לצורך בחירת הנוסחה. בכל מקרה, התפלגות Zipf היא "מה שנפוץ, נפוץ מאוד; מה שנדיר, נדיר מאוד". ר' למשל http://linkage.rockefeller.edu/wli/zipf/ . |
|
||||
|
||||
1. יש עוד סיבה לחבר: סכום הלוגריתמים הוא הלוגריתם של המכפלה, כך שהציון הזה מודד את שכיחות הזוגות שעוברים את הזוג "שלנו" בשני המדדים גם יחד (בהנחה ששתי המשכורות בלתי תלויות). 2. התפלגות Zipf היא כלל אמפירי שלפיו הסיכוי של המאורע ששכיחותו n-ית פרופורציונלית ל- {n^{-a, עם a קרוב ל- 1. בדקתי את ההתפלגות של מספר התגובות לסיפורים באייל (נכון ללפני חודש בערך, כשקיבלתי את המספרים), ולמרות שההתאמה לא מושלמת, הקבוע הוא a=0.93, קרוב במידה מרשימה לתחזית. |
|
||||
|
||||
איך, בעצם, העזתי לשכוח שאני מדבר עם מתמטיקאי? (האם השאלות הקודמות נועדו בעצם לבחון אותי? כי אם כן, אני אשלח אותך לקרוא את התזה שלי). |
|
||||
|
||||
לשאלה השניה - ממש לא; חשבתי על ההסבר ה"נכון" לגבי חיבור הלוגריתמים רק אחרי ששאלתי (וגם עכשיו זה יותר תירוץ מאשר הסבר). אבל לגבי האיום האחרון - נניח שאמרתי "כן". |
|
||||
|
||||
אם אמרת "כן", אז Tal Cohen and Joseph (Yossi) Gil, "Self-Calibration of Metrics of Java Methods", in Proceedings of Technology of Object-Oriented Languages and Systems 37 (TOOLS Pacific 2000). התחום אחר לגמרי, השיקולים די שונים, המטרה בכלל לא קשורה, אבל הפתרון - אותו פתרון.
|
|
||||
|
||||
לא הבנתי את 2. מה זה אומר, מה שכתבת שם? |
|
||||
|
||||
אפשר לסדר את האתרים באינטרנט לפי סדר, מזה שיש לו הכי-הרבה כניסות ביום (google.com?) לזה שיש לו הכי מעט (אתר הבית שלי?). אפשר לסדר את המלים בשפה העברית לפי מספר ההופעות שלהן בכל הספרים של הספריה הלאומית: החל במלה השכיחה ביותר וכלה בנדירה ביותר. אפשר לסדר את החברות בע"מ בארצות הברית, מזו שמחזור העסקים שלה הוא הגדול ביותר, לזו שהמחזור שלה הקטן ביותר. אפשר גם לסדר את הדיונים באייל הקורא, מזה שיש לו הכי הרבה תגובות (דיון 792), לזה שיש לו פחות מכולן (דיון 1153, נכון לרגע זה). ברור שבכל המקרים האלה, הציון של כל מתחרה (מספר הכניסות, מספר ההופעות, גודל המחזור השנתי) הוא פונקציה יורדת של המקום שלו בתחרות - כי הרי סידרנו את הרשימות כך שהציון ילך וירד. אבל מסתבר שבכל המקרים האלה (וברבים מאד אחרים), הציון של המתחרה במקום ה-n-י פרופוציונאלי דווקא ל- {n^{-a, כאשר a קרוב ל-1. לתוצאה התצפיתית הזו קוראים חוק Zipf (על-שם מי שגילה אותה). |
|
||||
|
||||
האם יש הצדקה מתמטית (או הצדקה חלקית) של העובדה התצפיתית הזו? האם, נניח, זה מה שיתקבל ממדגם אקראי של התפלגות נורמלית? אם לא, איך אתה יודע (או שבדקת איכשהו?) שזו התפלגות התגובות למאמרים באייל? |
|
||||
|
||||
ממדגם אקראי של התפלגות נורמלית תתקבל (כמה צפוי) התפלגות נורמלית. כמו כל המדענים הטובים, מתמטיקאים ניסויים1 מנסים להסביר את התוצאות התצפיתיות. את זה עושים על-ידי הצעת מודל, שאם הטבע היה מתנהג לפיו, היינו מקבלים (תאורטית) את מה שמתקבל בניסוי. בקישור שטל נתן למעלה ישנם כמה מאמרים המנסים להציע מודלים להתפלגות Zipf. למשל, נניח שסופרים היו משתמשים באלגוריתם הבא לכתיבת ספרים: לקראת כל מלה, זרוק קוביה. אם יצא 6, בחר באופן אקראי מלה מבין כל אלה שעדיין לא השתמשת בהן. אם לא, בחר באופן אקראי מלה בחלק הכתוב של הספר2, והעתק אותה פעם נוספת3. שכיחות המלים בספר שנכתב בשיטה הזו (ואני חושד שיש כמה כאלה) אמורה להתאים להתפלגות Zipf. את התפלגות מספר התגובות למאמרים באייל קיבלתי מאחד העורכים (לבקשתי); בכל מקרה מדובר במידע גלוי, שיכולתי לאסוף לו הייתי עובר על כל המאמרים. ההתאמה במקרה הזה אינה מרשימה במיוחד, אולי בגלל שקצב זרימת התגובות השתנה באופן משמעותי מאז הולדת האתר. 1 שאינני נמנה על שורותיהם, אגב. 2 ליתר דיוק, בוחרים *מקום* באקראי, כך שלמלים שהופיעו בשכיחות גבוהה יש סיכוי גבוה יותר להופיע שוב. 3 ההתפלגות אינה רגישה למלים עצמן, אלא רק לשכיחויות. לכן, כדי לטשטש את העקבות, הסופר האוטומטי יכול עם סיום הכתיבה להחליף את המלים שבחר (לפי שכיחותן בספר) במלים השכיחות ביותר בשפה העברית; כך, לפחות מבחינת התפלגות המלים, יהיה קשה להבדיל בין הספר שלו לספרים שנכתבו בשיטות פחות יצירתיות. |
|
||||
|
||||
מה שהתכוונתי במדגם אקראי מהתפלגות נורמלית הוא לסדר את תוצאות המדגם לפי סדר (מה שהופך את הניחוש שלי ללא *כל כך* מטופש, אני מקווה1). אבל בסדר, כבר הבנתי שזה לא נכון. 1 ואני מניח שהבנת את זה, אבל אני צריך להציל את כבודי בפני קוראים אחרים. לא חשוב. |
|
||||
|
||||
אפשר לחשב מה יקרה גם כשדוגמים מהתפלגות נורמלית. אם מדובר על ההתפלגות הרציפה אז לסידור מחדש אין כל-כך משמעות, כי בדגימה סופית כל ערך יתקבל רק פעם אחת. אפשר להניח שדוגמים ממרחב בן-מניה שלו התפלגות קרובה לנורמלית (למשל, חלוקה של הציר הממשי לקטעים רצופים שווי אורך, שההסתברות שלהם פרופורציונלית ל- (exp(-t^2/2 (כאשר t הוא אמצע הקטע)). במקרה כזה, מכיוון שנצטרך לקפל את הערכים השליליים והחיוביים, ההתפלגות תראה כמו המחצית הימנית של התפלגות נורמלית. לזה התכוונתי כשאמרתי שהתוצאה מדגימה נורמלית תהיה נורמלית - זה לא לגמרי טריוויאלי. |
|
||||
|
||||
אני ממש, אבל ממש, לא מבין. אולי אני צריך להפסיק להציק לך ולקוראים האחרים, אבל אם יורשה לי עוד נסיון אחד: מה זה משנה שכל ערך יתקבל רק פעם אחת? האם אתה לא מסדר אותם לפי סדר הגודל מ-1 ועד N? האם ב-zipf, כשאתה מסדר את הדגימות לפי סדר הגודל, זה מפריע לך אם יש או אם אין שני נתונים זהים? (גם את שאר התגובה שלך אני לא מבין, אבל אני מניח שהבלבול נובע מאותו מקור, אז נסתפק בזה). |
|
||||
|
||||
הנחת היסוד היא שאין סדר טבעי בין הגדלים שדוגמים (כמו מלים או אתרי אינטרנט), ואם יש אז מתעלמים ממנו. מסדרים את הערכים שקיבלנו לא לפי גודלם, אלא לפי *שכיחותם*, מהשכיח ביותר לנדיר ביותר. כל העניין הוא ההתפלגות הלא-אחידה של התוצאות, דהיינו החזרות על אותם ערכים (מלים, אתרים) שוב ושוב. |
חזרה לעמוד הראשי | המאמר המלא |
מערכת האייל הקורא אינה אחראית לתוכן תגובות שנכתבו בידי קוראים | |
RSS מאמרים | כתבו למערכת | אודות האתר | טרם התעדכנת | ארכיון | חיפוש | עזרה | תנאי שימוש | © כל הזכויות שמורות |