 |
נשמע כאילו זה שוק שממתין ל-Disruption של שחקנים אחרים. מה כבר NVidia עושים שלא יעלה על הדעת שיצליח לעשות איזה מתחרה?
נראה לי שההצלחה של NVidia היא אנומליה רגעית שתעבור. תוצאה של תהליכים היסטוריים - הרי לפני יומיים וחצי היעוד של ה-GPUs היה בעיקר בהאצה גרפית (משחקים וגרפיקה ממוחשבת). ה-CUDA לא הגיע לעולם ב-2007 כי היה ביקוש מטורף לפיצ׳ר הזה והוא היה די עניין איזוטרי ב-2007 עד 2010. ה-GPGPU נולד בעיקר בשביל צורך איזוטרי בחוגים אקדמיה להרצת סימולציות (fluid dynamics, climate modeling, etc).
רק ב - 2012–2018, כנראה אפילו לא בכוונה/לא כי זאת היתה כוונת המשורר, התחיל להיות פופולרי יותר ויותר השימוש ב-CUDA וחומרה של NVidia לאימון ב-ML. כנראה גם ההצלחה של AlexNet תרמה לפופולריות ואימוץ הכלי. אבל גם אז, בתקופה בה זה נהיה יותר פופולרי ב-ML, עדיין לא היה מדובר פה באיזה שוק מטורף שכל השחקנים חלמו להכנס אליו. באותם ימים, הרוב לא חלם את תופעת ה-LLM ואף אחד לא העלה בדעתו את תופעת ״חברות הג׳פטו״ שאנו מכירים היום.
בקיצור - נראה לי שהמעמד בו NVidia הגיעה אליו היום הוא אנומליה זמנית וסתם עניין מקרי. משהו שקיים ״מסיבות היסטוריות״. לכן לא נראה לי סביר שהם יצליחו לשמור על המעמד האנומלי הזה לאורך זמן. שחקנים אחרים יכנסו לשוק וינסו לנגוס בעוגה.
חברות כמו AMD, Intel, Google ו-Apple1 כבר החלו להציג פתרונות חומרה ייעודיים ל-AI. חלקם, כמו Google עם ה-TPUs, כבר משמשים בצורה מסיבית בתשתיות ענן פנימיות. ככל שהביקוש ימשיך לגדול, כנראה שנראה יותר פתרונות תחרותיים שמסוגלים לאתגר את השליטה של NVIDIA.
_________ 1 לגבי אפל - נכון, הצ׳יפים של Apple מתרכזים בפתרונות עם אופטמיזיציה ל-Inference שמריצים מודלים קיימים על מכשירי צריכה (במינימום בזבוז בטריה), אבל גם סביר להניח שהם עובדים על צ׳יפים (ותוכנה) לשימוש פנימי של ה-R&D שלהם מאחורי הקלעים, עם אופטימיזציות לצורך למידה של מודלים, כדי להוריד סיכונים של תלות בחומרה של NVidia ובתוכנה של OpenAI בעתיד. אם יהיה להם ביד משהו מוצלח, לא אפול מהכסא אם אפילו הם יכנסו לשוק החומרה הזה (גם אם זה חורג מהאפל שאנו מכירים שירדן אפיין לא רע למעלה כ״מוכרת מוצר צריכה המונית לצרכני קצה, ומשכילה להוון תדמית, אופנה וסמל סטטוס״).
|
 |