|
||||
|
||||
1. יש כמה "מחשבי על" מודרניים באוניברסיטה העברית. פרופסורים מהחוג למחשבים הצליחו לבנות אותם ע"י שרשור של כמה עשרות פנטיומים. זו עדיין לא טכנולוגיה טריוויאלית, וקשה לי להאמין שמישהו מאוניברסיטת בגדאד יצליח לעשות את זה בזמן הקרוב. 2. מחשב על, ואפילו מהדור הישן, כמעט תמיד חזק יותר (בסדרי גודל!) ממחשב ביתי - מהסיבה הפשוטה שהוא עובד בחישוב מקבילי. 3. הטכנולוגיה של פצצות נוייטרון אינה טריוויאלית. היא דורשת הרבה ידע והרבה כח חישוב. יכול להיות שאפשר להסתפק בפלטפורמות של SUN. עדיין, יקח שנים לפני שפצצות כאלה יגיעו לזירה. זה יקרה שנים אחרי שפצצות ביקוע יגיעו לאיזור. 4. אני כן רוצה לעורר שאלה אסטרטגית: האם אין הבדל בין בצצות ביקוע לפצצות נוייטרון? אני לא חושב שמדינת ישראל תיעלם אם תיפול פצצת נויטרון על תל אביב. מדינת ישראל כן עשויה להיעלם (יחד עם הפלשתינאים, ואולי עוד כמה אומות) אם פצצת ביקוע גדולה תיפול באיזור. איך נתמודד עם ההשלכות הסביבתיות? |
|
||||
|
||||
בטכניון הוקם מחשב שמאפשר חישוב על ע"י ריבוי מעבדים - פרוייקט Millipede. הכי משעשע היה לראות על הדלת של המרצה האחראי - דר. אסף שוסטר דואל מאירן(!!!) המביע התעניינות ומבקש פרטים נוספים... |
|
||||
|
||||
בסביבות שנת 1970 יצא אדם בשם MOORE עם המשפט הנבואי הבא: "מהירות המחשבים תכפיל את עצמה כל 18 חודש." התחזית שלו התבססה על הערכת יכולת המיזעור של רכיבים אלקטרוניים. מהירות "האלקטרונים" במעגלי המחשב היא קבועה (כמחצית ממהירות האור), והדרך שבה שוכללו המעבדים הייתה ייצורם קטנים יותר ויותר, כדי להקטין את הדרך בה יעברו ה "אלקטרונים". התחזית הזאת התאמתה בצורה מדהימה והחוק של מור היה תקף מאז שיצא ועד היום. המשמעות היא שמעבד של היום מהיר פי 2 בחזקת (30/1.5) מהמעבד של אז. כלומר פי 1048578 (למעלה ממיליון). במחשבי העל המעבדים עצמם אינם שונים במהירות העיבוד בהרבה מהמעבד הסטנדרטי (יש שם דרישה לפחות פעולות, מה שמאפשר האצה קטנה של החישוב), אך נוספים לכך שתי טכנולוגיות: עיבוד מקבילי וריבוי מעבדים (זה לא אותו דבר). העיבוד המקבילי מעלה את המהירות בערך פי שניים, ובעצם העוצמה הרבה מושגת ע"י ריבוי מעבדים, אבל השימוש בטכניקה זו הוא אפשרי רק אם אופי הבעיה שנפתרת הוא מקבילי, כלומר שניתן לחלקה כך שהחלקים אינם תלויים זה בזה, ולפתור את חלקיה, במקביל. הטכניקה שעליה ספרת על חיבור כמה מחשבים במקביל ידועה אף היא. ידוע שפתרון הגניום האנושי נעשה ע"י חיבור דרך האינטרנט של עשרות אלפים מחשבים של משתתפים שנידבו את מחשביהם שנוצלו בזמן מת, ובטכניקה זו הצליחו לקבל יכולת חישוב גדולה משל מחשב מקבילי. אבל די להביט שוב במספר 1048578 שצוין למעלה כדי להבין במה מדובר. טלר פיתח את פצצת המימן הראשונה בשנת 1953 כעשרים שנה קודם, לפני עידן הטרנזיסטורים. המחשב שעמד לרשותו נבנה בטכנולוגיות של מנורות רדיו שגרמו לכך שהמעבדים היו ענקיים בגודלם הפיזי (ולכן איטיים). איפה המחשב שלו ואיפה המחשב שעל שולחני. ולבסוף אני מציע שלא תזלזל ב "מישהו בבגדד". העיראקים הוציאו כבר מדענים בעלי שיעור קומה רב. הטכנולוגיה של חיבור מחשבים במקביל, כמו שספרת נעשה באוניברסיטת ת"א, אינה כל כך מסובכת. האמן לי. לא זה יהיה הדבר שיעכב אותם. |
|
||||
|
||||
פצצת מימן שתפוצץ במרכז גוש דן, תשמיד את רוב ישראל, ירדן והרשות הפלסטינית וגם חלקים נכבדים מסוריה ולבנון. כל זה בלי לקחת בחשבון את ההשפעות הגיאולוגיות של הפיצוץ על השבר הסורי אפריקאי וההשפעה של פיצוץ בסדר גודל כזה על הים התיכון (שיטפונות ביון ומצריים ושינויים אקלימיים בכל האזור). בקיצור, אין מה לחשוש שמישהו ינסה להפעיל פצצה כזו פה מכיוון שהוא יעלה השמיימה כמה מבעלות בריתו ביחד עם אויביו, ויגרום גם לעצמו נזק לא מבוטל. פצצות גרעין טקטיות ופצצות נויטרון הן הסכנה העיקרית ועד כמה שזה ישמע לך מוזר כדי לפתח אותן יש צורך במחשבי על. עד כמה שידוע לי לא דיברו על פצצות כאילו עד תחילת שנות השמונים ולא פיתחו כאילו על ידי מחשבים מבוססי שפופרות ואקום. מחשבי הפי סי והאפלים שהיו בראשית שנות השמונים הכילו מעבדים במהירות של מגה הרץ אחד (סדר גודל) כיום מדברים על מעבדים של גיגה הרץ שזה בערך פי 1000. לכאורה מדובר בגידול של פי אלף בכוח החישוב אבל זה לא מדויק. מחשב הפנטיום-2 400 שיש לי בעבודה לא עובד פי שתיים יותר מהר מהפנטיום 200 שיש לי בבית. ישנם פרמטרים נוספים שמגבילים את הפעילות של המחשב כגון מהירות מזיכרון ולוח האם (שאמנם גדלים אבל בקצב איטי בהרבה). בנוסף כאשר מנסים להריץ בצורה טורית אלגוריתמים בעלי אופי מקבילי, נוצר מצב שחלק ניכר ממשאבי המחשב הולך לניהול הפתרון ולא לחישובים עצמם. ע"י הוספת מעבד שני אתה מקטין בצורה משמעותית גם את מספר הגישות לזיכרון וגודל מבני הנתונים שלך ובעצם מקטין את מהירות החישוב לא פי 2 אלא פי 4 לפחות. ישנה תורה שלמה בנושא עיבוד מקבילי שאני לא ממש מכיר שלפיה במקרים מסוימים ניתן להגיע לשיפור אקספוננציאלי במהירות החישוב על ידי תוספת מספר גדול של מעבדים (בבעיות מסוימות תוך שימוש באלגוריתמים מסוימים. אני אומר את זה מידע כללי, אין לי מושג איך מוכיחים את מה שאמרתי, באילו בעיות מדובר ומהם האלגוריתמים הללו אבל נרשמתי השבוע לתואר שני במדעי המחשב ובטח תוך שנה שנתיים אני אדע יותר). בכל אופן עבודה של מחשב בעל מספר עשרות מעבדים תוך שימוש באלגוריתמים מתאימים עשוי לאפשר פתרון בעיות שלא ניתן לפתור בצורה טורית בכלל. שימוש בהרבה מחשבים במקביל לא מתאים לכל הבעיות הדורשות חישוב מקבילי אלא מתאים יותר לבעיות גדולות שבהן חישוב מקבילי עוזר אבל הוא לא הכרחי. |
|
||||
|
||||
להזכירך דורון, פקחי האו''ם שביקרו בעירק הופתעו לגלות שהעירקים בחרו דווקא את מסלול ''לוס-אלמוס'' - פצצות גרעיניות קטנות בנוסח הירושימה ונגסאקי שפותחו כמובן ללא חישוב על בשנות הארבעים. פצצות כאלו יכולות בהחלט לגרום למאות אלפי הרוגים אם היו מושלכות על האיזור שבין חדרה לגדרה. הנזק הסביבתי לעומת זאת היה ''נסבל'' (עד כמה שניתן לקרא לתועבה שכזו נסבלת). ולראיה, מרכז העיר הישן של הירושימה נגיש למבקרים. כמובן נשאלת השאלה האם בכלל מישהו (משני הצדדים) בכלל מתכוון להשתמש בנשק גרעיני אי פעם בכל סוג של נסיבות. |
|
||||
|
||||
אתה צודק. בלהיטותי להצביע על הצורך באמצעים מיוחדים לצורך פיתוח נשק בלתי קונבנציונאלי נורא ביותר, התעלמתי מהעובדה שניתן באמצעים פחותים בהרבה ליצר נשק שמבחינה אבסולוטית הוא קצת פחות נורא, אבל עבורנו אין הבדל משמעותי בין השניים. זה מזכיר את הסיפור על העט שנאסא פיתחו בהשקעה של מיליונים כדי שאסטרונאוטים יוכלו לכתוב בחוסר כבידה בעוד שהרוסים השתמשו בעיפרון. |
|
||||
|
||||
האמת שיש יתרון לעט על עיפרון בחלל. העפרון מורכב כידוע מגרפיט (ולא מ''עופרת''). הגרפיט הוא מוליך חשמל מצויין - משתמשים בו למשל כדי להעביר זרם למכשירים מסתובבים דרך מעין ''מברשות''. הסכנה בחללית היא שפרורי גרפיט יחדרו לתוך מעגלים חשמליים ויגרמו לקצרים. כמובן שאפשר לעטוף את הכל בפלסטיק נצמד אבל זה כבר מתחיל להראות יותר מדי כמו מכונת ''רוב גולדברג'' |
|
||||
|
||||
אחרי הצבא עבדתי קצת בתור טכנאי שירות בכבלים ובאמת שמתי לב שברוב הבתים של עולים חדשים מחבר המדינות, השטים עטופים בנילונים ניצמדים, או מנוילנים בסיגנון צבאי. אולי זה קשור. |
|
||||
|
||||
כן, אבל רעיונית, מרגע ש''נפל האסימון'' שלא צריך עט מיוחד אלא רעיון העיפרון מספיק, אפשר להשתמש גם ב''קריולה'' לצורך העניין. למיטב ידיעתי, הצבעים של ''קריולה'' אינם מבוססי גרפיט. |
|
||||
|
||||
כיום גם רוב העפרונות אינם מכילים גרפיט אלא חומרים סינטטיים הרבה יותר זולים. |
|
||||
|
||||
מסתבר שאפשר לכתוב בחלל גם עם עט כדורי רגיל: http://www.esa.int/export/esaCP/SEM9YN7O0MD_index_0.... |
|
||||
|
||||
בסוגי בעיות שבהן מרכיב ה "טחינה" (חישובים במספרים עשרוניים) הוא הדומיננטי מהירות החישוב גדולה ביותר מיחס המגהרצים משום שבנוסף לקצב השעון הוכנסו גם שכלולים נוספים. אני עצמי קראתי עבודת השוואה שנעשתה ע"י הרצת מגוון בעיות, שמאמתת את דבריי. הידע הכללי שיש לך בנושאי מחשבי על אינו נכון. בדרך כלל רבוי המעבדים אינו מכפיל את מהירות החישוב כמספר המעבדים אלא מעלה אותו למספר קטן יותר מהיחס הזה. אני ראיתי מחשבים עם שמונה מעבדים, אבל מעולם לא ראיתי ששמונת המעבדים הצליחו להאיץ את המהירות פי שמונה. מה שראיתי הוא מספר כמו ארבע. ומה המסקנה שלך ? איזה מחשבי על היו בתחילת שנות השמונים ? האם התקרבו בכלל למהירות מעבד אחד מהדור שלנו ? זו טענה אבסורדית. |
|
||||
|
||||
באיזו מערכת הפעלה השתמשו באותו מחשב בעל 8 המעבדים? מערכת ה NT מסוגלת לעבוד עם מספר מעבדים אבל היא לא בנויה כדי לנצל את מלוא הכוח שלהם. באתר הבית של חברת crey מספרים על ה crey 1 שהוצב בלוס אלמוס ב 76 הוא פעל בקצב של 160 mflops (160 מיליון חישובים בשניה). ב 85 הם הציבו באתר את מחשב העל הראשון שלהם (crey 2) שהגיע לביצועים של פי 10 מהראשון כלומר כ 1.6 gflops. כדי למצוא איזושהי הקבלה בין ה MHz של ה P.C לmflops של מחשבי העל נבצע את החישוב הבא: אני לא יודע בודאות כמה cycles יש בחישוב אחד במעבד פנטיום אבל אם אין שינוי ארכיטקטורה מהפכני מאוד מה 486 (וסביר להניח שאין) אז מדובר ב 4 cycles לפקודת מכונה ונניח שפקודה אחת לחישוב ( הנחה לא מעשית אבל נגיד ש..) כלומר אם יש לך מחשב פנטיום של MHz800 הוא יבצע כמאתיים מיליון חישובים בשניה אם תוסיף לחישוב את העובדות שבמחשב כזה מבוזבז זמן רב בהעברת הנתונים דרך רשת תקשורת ממחשב למחשב בעוד שבמחשב על, כל המעבדים ניגשים לאותו זיכרון, ותיקח בחשבון שמערכת הפעלה רישתית כזו מגיבה לאט בהרבה ממערכת הפעלה של מחשב אחד, ודורשת חלק מכוח החישוב של כל אחד מהמעבדים, תוכל באופטימיות רבה לחלק ב 5 - 10 את קצב החישובים התיאורטי של מחשב כזה. כלומר חישוב מקבילי במעבדה של 8 מחשבי פנטיום החדישים ביותר בשוק תיתן ביצועים בסדר גודל של עשירית ממחשב על בן 15 שנה. |
|
||||
|
||||
אני חושב שבכל זאת אנו מתחילים להתכנס. בוא נניח שהמהירות שאתה כנראה מדבר עליה היא מהירות ביצוע פעולות עשרוניות (flop כנראה פלוטינג פוינט), ושהנתון לגבי הקרי בן ה 15 שנה הוא נכון. (פעולות פשוטות יותר יכולות להיות במחזור אחד או שניים כלומר אם מדובר בפעולה בסיסית ניתן לפעמים, למדוד את מהירות המחשב הביתי בן ימנו ב 800 פעולות בשניה.) אם אכן אתה מדבר על פעולות כאלה המספר שנתת, מאתיים מליון פעולות בשניה, לגבי הפנטיום בן ימנו הוא סביר. אבל אני חושש שהייתה לך בעיה דווקא בפעולות הכפל והחילוק. נעזוב לרגע את ריבוי המעבדים במחשב שאותו הזכרתי, ונשווה את הקרי ההוא עם מעבד בודד בן ימנו, וניקח את המספרים שאתה עצמך מביא. 160 כפול 10 חלקי 200 הם 8 בדיוק. היה פה מישהו אחר שטען (אגב, טענה פנטסטית) שריבוי מאבדים מאיץ את מהירות החישוב אקספוננציאלית בהרבה יותר מהכפלה במיספרם. אתה עברת לקיצוניות הפוכה. אתה טוען שריבוי המעבדים מאט את הקצב . . . כל הזמן אתם מנסים להעלות את קצב המחשב "שלהם" ולהוריד את קצב המחשבים "שלי" ע"י דברים והיפוכם. אם ניקח "ממוצע" של השקפותיכם ונניח שישנה הכפלה במהירות בדיוק כמספר המעבדים נגיע למסקנה שמחשב עם שמונה מעבדים כאלה עובד בדיוק כמו אותו מחשב על מלפני 15 שנה. לשאלותיך, המחשב רב המעבדים שאותו הזכרתי משמש כשרת, ומדובר במערכת הפעלה יוניקס. לא מדובר באיזו עבודת "התלאה", שנעשתה כאן, אלא במחשב שנקנה בצורתו זו. כך או כך תחילת הפיתוח של פצצות נויטרון התחילה לפני שהקרי שעליו דברת היה יכול לעמוד לרשות המפתחים, ובהתחשב בקצב ההתפתחות המדהים בענף המחשבים, מה שעמד לרשותם נפל בהרבה מהיכולת שהבאת. פצצת מימן פותחה כפי שהזכרתי כבר בשנת 53 . אי אפשר בכלל להשוות את המחשבים של אז לאלו של ימנו. ואולי עוד הערה. בעיות שניתנות לפתרון יעיל באמצעות ריבוי מעבדים יכולות להיפתר "ידנית" ע"י הרצתם בכמה מחשבים ללא כל קשר ביניהם, ללא שום טכנולוגיות ניהול על, ואפילו בלי רשתות "נוירוניות" או רשתות אינטרנט שגם בהם משתמשים למטרה הזאת. לדוגמה אם יש לנו המון מספרים שאנו רוצים לחשב את הממוצע שלהם, אפשר לחלק את קבצי המספרים בין כמה חברה כשלרשות כל אחד מהם עומד מחשב אישי. לבסוף, כולם יבואו עם מספר הסיכום ותתבצע פעולת סיכום הסיכומים והחילוק. לכן , הנתונים שאתה עצמך מביא , מראים שללא שום טכנולוגיה נוספת אפשר לפתור בעיות דומות לאלה של המחשב ההוא באותו זמן. עליך רק לקנות עשרה מחשבים רגילים להושיב עליהם עשרה אנשים (או איש אחד וכסא עם גלגלים, כדי שהעובד שיאלץ לעבור ממחשב למחשב, לא יעשה עיצומים), ופצצת נויטרון יוצאת מבין אצבעותיך . . . וממש לבסוף, למרות כל טענותיי והוויכוחים הארוכים שניהלתי בעניין, המספר שהבאת לגבי מחשב העל מלפני 15 שנה מאד מרשים ומעבר למה שהערכתי. רק כדי לשטוף אל העיניים, אם יש לך כתובת האתר שמכיל את המספר 1.6 gflops ושנת לידתו של מחשב העל שבו מדובר, אודה לך אם תציינו. |
|
||||
|
||||
יחידת flop היא floating point operation כאשר מאפיינים קצב עבודה של מחשב ב MHz האינדיקציה היא למהירות השעון שלו. השעון הזה מסנכרן את הפעולות הבסיסיות ביותר של המחשב. פעולת חישוב מתבצעת ב 4 מחזורים כאילו (קריאת הפקודה, הבאת הנתונים, חישוב, הצבת התוצאה) כלומר מחשב של 800 MHz ייתן ביצועים של 200 Mflops קיימת טכנולוגיה בשם pipelining שמבצעת במקביל פעולות בסיסיות של פקודות שונות אבל עד כמה שידוע לי התמיכה של מחשבים אישיים בטכנולוגיה הזו היא מאוד עלובה (אולי בפנטיום 4 או 5). כלומר בשיא הביצועים מחשב ביתי ייתן 200 Mflops. ריבוי מעבדים דומה במידה מסוימת לעבודה בצוות. כאשר יש הנהגה נכונה (מע' הפעלה) וחלוקת עבודה טובה (אלגוריתם חישוב מקבילי מתאים לבעיה) ניתן לפתור בעיה בצורה הרבה יותר טובה מאשר בצורה טורית. במקרים מסוימים ריבוי מעבדים יאט את קצב העבודה. כאש מדובר בבעיה טורית קל יותר יהיה לכבות את רוב המעבדים ולתת לאחד לבצע את רוב העבודה (למשל בעיה מסוג של ספירה. כל איטרציה דורשת תוצאה של חישוב קודם וזהו אם יש יותר מידי מעבדים מערכת ההפעלה וההגנות שהיא מפעילה רק יעקבו את החישוב). בעיות גדולות (כמו ממוצע) ניתן לחלק לבעיות קטנות ולשפר את הזמן הכולל לפתרון אבל מכיוון שבחלוקה אנחנו מוסיפים חשובים (איסוף התוצאות חיבורם וחלוקה מחדש) אנחנו פוגעים בתפוקה בעיה כזו שמחולקת ל 10 מעבדים תיקח יותר מעשירית הזמן שהיה לוקח לפתור אותה במעבד אחד. דוגמא לבעיה בעלת אופי מקבילי. נניח שהבעיה שלנו היא 100 חלקיקים שיושבים במיכל. לגבי כל אחד צריך לחשב את השקול הכוחות בין כל חלקיק לחלקיק. כלומר נחזיק בזיכרון מבנה נתונים שיתאר את מצבי כל החלקיקים (מסה, מהירות מטען וכו') בכל איטרציה עוברים על המבנה ומחשבים את המצב הבא של כל חלקיק (כלומר 10000 פעולות חישוב). בצורה כזו ניתן להקטין את זמן העיבוד פי מספר המעבדים במחשב על (כל מעבד מחשב בנפרד עבור כל חלקיק ובסוף מעדכן את המבנה נתונים). לכאורה מדובר בבעיה פתירה גם במחשב רגיל, במקום יום שלם, המחשב ירוץ עשרה ימים ונקבל פתרון אבל בפועל זה לא עובד (מתי בפעם האחרנה ראית מחשב טוחן יותר מחצי שעה בלי להיתקע?). בעבודה עם רשת מחשבים אין טעם בכלל לנסות לפתור בעיה כזו מכיוון שבסוף כל איטרציה נצטרך לעדכן כל אחד מהמחשבים במצב של כל אחד מהחלקיקים כך שמאמצי התקשורת ייקחו הרבה יותר זמן מהחישובים. ועכשיו השוס אין לי שום מושג בחישוב מקבילי. מה שתיארתי כאן הוא לא חישוב מקבילי אלא האלגוריתם הכי טרויאני לבעיה לא מאוד מסובכת (שבטח פותרים כמה כמוה בזמן תכנון פצצת נויטרון). אלגוריתמים מתקדמים יותר יפתרו את הבעיה הזו הרבה יותר מהר (אני מתכוון אקספוננציאלית אני לא מכיר אותם אבל אני מכיר אנשים שעשו על אלגוריתמים כאלו תזות של תואר שני ככה שיש בשר בעניין אם נדבר שוב בעוד שנה או שנתיים אני אדע יותר ואולי אוכל לתאר לך אחד כזה). בכל אופן אני מאוד שמח שצריך לעשות יותר מממוצע של הרבה מספרים כדי ליצר פצצות. האתר של חברת קריי הוא http://www.cray.com/ הרצתי בו חיפוש על המילה history והגעתי למאמר המדובר. |
חזרה לעמוד הראשי | המאמר המלא |
מערכת האייל הקורא אינה אחראית לתוכן תגובות שנכתבו בידי קוראים | |
RSS מאמרים | כתבו למערכת | אודות האתר | טרם התעדכנת | ארכיון | חיפוש | עזרה | תנאי שימוש | © כל הזכויות שמורות |