קבוצת אנט מחדשת את תחום ה-AI על ידי שילוב שבבים מקומיים באקוסיסטם הטכנולוגי שלה. אסטרטגיה זו נועדה לצמצם את עלויות האימון של המודלים תוך הפחתת התלות בטכנולוגיה אמריקאית מוגבלת. השימוש בשיטות חדשניות כמו Mixture of Experts מהווה קפיצת מדרגה משמעותית עבור חברות סיניות. קבוצת אנט פונה לאתגרים של נגישות למשאבים ספציפיים, בכך שהיא יוזמת שינויים מהותיים בינה מלאכותית. התוצאות המוקדמות מעידות על עתיד שבו חברות סיניות יכולות להתחרות עם מדינות בעלות טכנולוגיות דומיננטיות.
שימוש בשבבים סיניים לאימון מודלי AI
קבוצת אנט מאמצת אסטרטגיה נועזת בכך שהיא פונה אל שבבים מקומיים כדי לאמן את מודלי הבינה המלאכותית שלה. יוזמה זו עונה על הצורך לצמצם את העלויות ולהפחית את התלות בטכנולוגיות אמריקאיות מוגבלות. מקורות שסיימו דיווחים כי החברה כבר שילבה שבבים מספקים מקומיים, כולל אלו הקשורים לאליבאבה ולוואווי טכנולוגיות, בתהליך אימון המודלים שלה.
ביצועים דומים ל-Nvidia
תוצאות המודלים של קבוצת אנט, הנובעות משימוש בשיטת Mixture of Experts (MoE), כבר מתמודדות עם ביצועי השבבים H800 של Nvidia. אף על פי שהחברה ממשיכה להשתמש בכמה שבבים של Nvidia לפיתוחיה בבינה מלאכותית, היא חוקרת יותר ויותר אפשרויות חלופיות שמציעות AMD וספקי שבבים סיניים. גיוון זה מדגיש את מחויבות אנט לתחרות הגוברת בין חברות טכנולוגיות סיניות לאמריקאיות.
התקדמות בצמצום העלויות
קבוצת אנט פרסמה מסמך מחקר המפרט כי המודלים שלה לעיתים עולים על היצירות של Meta, מה שמייצג התקדמות משמעותית לחברה. אם ביצועי המודלים יאושרו, אנט יכולה לעבור לשלב חדש בצמצום העלויות הקשורות להפעלת יישומי AI, תוך הפחתת התלות בחומרה זרה. אנליסטים ומומחים שואלים לגבי יכולת זו לייצר תוצאות משכנעות מבלי להיעזר בGPU ברמה גבוהה.
עקרון המודלים MoE
מודלי MoE מפצלים את המשימות לקבוצות נתונים קטנות יותר, הנעשות על ידי רכיבים שונים. גישה זו עוררה עניין רב בקרב חוקרי AI ומדעני נתונים. קבוצת אנט כיוונה בבירור למטרה של הפחתת חסמי עלויות הקשורים לרכישת GPU ברמות ביצוע גבוהות. כותרת המסמך המחקרי מדגישה: "Scaling Models without premium GPUs".
השפעה על תחום ה-AI
הכיוון שבו הולכת קבוצת אנט בניגוד עמוק לזה של Nvidia, שהמנכ"ל שלה, ג'נסן וואנג, מדגיש את הצורך בהעלאה מתמדת בכוח החישוב. חברות, לפי דבריו, יעדיפו שבבים חזקים יותר, דבר שסותר את השאיפה של אנט להתקדם בתחום צמצום העלויות. כך, האסטרטגיות של שני ענקיות הטכנולוגיה נראות מנוגדות לחלוטין.
עלות אימון המודלים
לדברי המידע שחשפה אנט, אימון טריליון טוקנים – יחידות בסיסיות שנמצאות בשימוש על ידי מודלי AI – עלה כ-6.35 מיליון יואן. בזכות המתודולוגיה המוטבת שלה, אנט הצליחה לצמצם את ההוצאה הזו לכ-5.1 מיליון יואן, תוך שימוש בשבבים עם מפרט נמוך יותר.
יישומים תעשייתיים של מודלי AI
אנט שואפת ליישם את המודלים שלה, המכונים Ling-Plus ו-Ling-Lite, במקרים של שימוש תעשייתי כמו בריאות ופיננסים. רכישת הפלטפורמה הרפואית Haodf.com מעידה על השאיפה של אנט לפתח פתרונות מבוססי AI בתחום הבריאות. החברה מציעה גם מגוון שירותי AI, כולל יישום של עוזר וירטואלי ופלטפורמת ייעוץ פיננסי.
מודלים קוד פתוח ומספרים מרכזיים
Ling-Lite מכיל 16.8 מיליארד פרמטרים, בעוד של-Ling-Plus 290 מיליארד. להשוואה, המודל GPT-4.5, כיום סגור, יכיל כ-1.8 טריליון פרמטרים. אנט החליטה להפוך את המודלים שלה לקוד פתוח, ובכך מעודדת חדשנות בתחום ה-AI.
אתגרים מתמשכים באימון המודלים
המחקר של אנט מדגיש כי, למרות ההתקדמות שנעשתה, האימון של המודלים נשאר אתגר טכני. שינויים קלים בארכיטקטורה או בחומרה במהלך האימון של המודלים עשויים לגרום לביצועים לא יציבים, מה שמביא לעליות בשיעורי השגיאה.
עבור מי שמתעניין בהתפתחות ה-AI ונתונים גדולים, האירוע AI & Big Data Expo באמסטרדם, קליפורניה ולונדון מהווה הזדמנות מעניינת ליצור אינטרקציה עם מנהיגי התעשייה.
שאלות נפוצות
למה קבוצת אנט משתמשת בשבבים מקומיים עבור מודלי ה-AI שלה?
קבוצת אנט פונה לשבבים מקומיים כדי לצמצם את עלויות האימון של ה-AI ולהפחית את התלות בטכנולוגיה אמריקאית מוגבלת, במיוחד בתגובה להגבלות על ייצוא компонентов אלקטרוניים מסוימים.
איזה סוג של שבבים מקומיים משתמשת קבוצת אנט לאימון המודלים שלה?
קבוצת אנט משתמשת בשבבים מספקים מקומיים, כולל אלה הקשורים לאליבאבה ולוואווי, כדי לאמן מודלי AI תוך שימוש בשיטות חדשניות כמו Mixture of Experts (MoE).
האם קבוצת אנט הצליחה להגיע לביצועים דומים לאלו של שבבי Nvidia עם שבבים מקומיים?
כן, לפי מקורות, התוצאות של המודלים של קבוצת אנט שהאומנו על שבבים מקומיים יהיו דומות לאלו שפותחו עם שבבי H800 של Nvidia.
מה היתרונות של שימוש בשבבים מקומיים ל-AI בהשוואה לשבבים זרים?
היתרונות כוללים הפחתה משמעותית בעלויות האימון, עצמאות טכנולוגית מוגברת ועקיפת מגבלות היצוא המגבילות את הגישה לשבבים ברמות ביצוע גבוהות.
מה המטרה העיקרית של שיטת Mixture of Experts (MoE) בה משתמשת קבוצת אנט?
MoE מפצלת את משימות האימון לקבוצות נתונים קטנות יותר המנוהלות על ידי רכיבים נפרדים, מה שהופך את תהליך ההדרכה ליעיל יותר וזול יותר.
האם קבוצת אנט מתכוונת ליישם את מודלי ה-AI שלה בתחומים נוספים?
כן, קבוצת אנט מתכננת ליישם את המודלים שלה, כולל Ling-Plus ו-Ling-Lite, במקרים של שימוש תעשייתי, כמו בריאות ופיננסים.
מה ההשלכות של קוד פתוח עבור המודלים של קבוצת אנט?
על ידי הפיכת המודלים שלה לקוד פתוח, קבוצת אנט מאפשרת לארגונים אחרים להשתמש ולשפר את עבודתה, דבר שיכול להאיץ את החדשנות בתחום ה-AI.
אילו אתגרים נתקלת קבוצת אנט באימון המודלים שלה בבינה מלאכותית עם שבבים מקומיים?
קבוצת אנט דיווחה על אתגרים הקשורים לחוסר יציבות בביצועים בעת ביצוע שינויים קטנים בחומרה או במבנה של המודלים, דבר שיכול להביא לעליות בשיעורי השגיאה.
איך האסטרטגיה של קבוצת אנט שונה מזו של Nvidia בכל הנוגע לאימון בינה מלאכותית?
בעוד ש-Nvidia מתמקדת בפיתוח GPU חזקים יותר עם יותר ליבות וזיכרון, קבוצת אנט שואפת להפחית את עלויות האימון על ידי שימוש בשבבים עם מפרט נמוך יותר.
מה עלות האימון של טריליון טוקנים לפי מחקרי קבוצת אנט?
עלות האימון של טריליון טוקנים מוערכת בכ-5.1 מיליון יואן הודות לשימוש בשבבים פחות חזקים, לעומת 6.35 מיליון יואן עם חומרה מסורתית.