הסטארטאפ Impala AI מכריז על גיוס סיד בהיקף של 11 מיליון דולר, בהובלת הקרנות Viola Ventures ו-NFX. החברה פיתחה שכבת תשתית חדשה להרצת מודלי שפה גדולים (LLM inference), שנועדה לאפשר לארגונים להריץ AI בהיקף בלתי מוגבל. תוך הורדה דרמטית של העלויות ושמירה על גמישות ושליטה. ההשקעה תשמש להרחבת הצוות, העמקת יכולות המוצר והאצת הפריסה בשוק.
הפלטפורמת מספקת חוויית serverless, תוך שהיא מטפלת באתגרי ניהול כושר ה-GPU, מבלי להתפשר על שליטה ארגונית. אימפלה מספקת עד פי 13 חיסכון בעלות לכל טוקן בהשוואה לפלטפורמות inference זמינות כיום, תוך שמירה על רמת גמישות ואמינות ארגונית. הפלטפורמה מנוהלת באופן מלא, מולטי-קלאוד ורב-אזורית. שנפרסת ישירות ב-VPC של הלקוח, ומאפשרת שליטה מלאה בנתונים, בעלויות ובבחירת הענן.
הביקוש לתשתיות AI שעולה בקצב מהיר על ההיצע, מביא לכך שארגונים מתמודדים עם אתגרים גוברים בהרצת עומסי עבודה של inference בקנה מידה גדול בצורה יעילה. התעשייה מפנה את תשומת הלב שלה יותר ויותר מהאימון (training) להרצה (inference), שנעשית לאתגר המרכזי מבחינת עלות ותפעול ב-AI ארגוני.
לפי ניתוח שוק עדכני, שוק ה-inference צפוי להגיע ל-106 מיליארד דולר עד 2025 ולצמוח ל-255 מיליארד דולר עד 2030. חברת המחקר Canalys ציינה לאחרונה כי בניגוד לאימון, שהוא השקעה חד-פעמית, inference מייצג עלות תפעול חוזרת, מה שהופך אותו למגבלה קריטית בדרך למסחור ה-AI
Impala מנצלת את הביקוש ההולך וגובר ל-GPU על ידי פתיחת יכולות ניצול שמעבר לסטנדרט המקובל כיום ומביאה לשבירת צווארי הבקבוק של ההיצע. בעולם שבו מודלים בקוד פתוח הופכים לסטנדרט דה-פקטו בשימוש הארגוני, Impala מספקת את השכבה החסרה של הרצת inference במקום שבו הנתונים נמצאים, עם השליטה והיעילות שארגונים גלובליים דורשים, ללא פשרות באמינות ובגמישות וכל זאת באמצעות מנוע הרצה ייחודי.
Impala AI הוקמה בשנת 2025 על ידי נועם זלינגר, מנכ"ל, לשעבר מנהל בכיר ב-Granulate ובועז טויטו בוגר 8200, סמנכ"ל טכנולוגיות. החברה כבר עובדת עם חברות Fortune 500 ומתכננת להתרחב גלובלית עם סבב הגיוס הנוכחי.
נועם זלינגר, מייסד שותף ומנכ"ל Impala AI: “אנחנו בפתחו של עידן חדש ב-AI, שבו ה-inference יהפוך למנוע הדומיננטי בגל החדש של חדשנות. ב-Impala אנחנו לא בונים עוד פלטפורמה, אלא את התשתית שתפעיל את ה-AI בקנה מידה אמיתי. המשימה שלנו היא לאפשר לכל צוות בחברה למצות את מלוא הפוטנציאל של המודלים שלו באופן חכם, יעיל וחסכוני יותר מאי פעם ולהפוך את ה-inference לבלתי-נראה. כאשר צוות מחבר את Impala לענן שלו, הוא לא צריך לחשוב על הקצאות, סקיילינג או אופטימיזציה של GPU. אנחנו מטפלים בכל זה מאחורי הקלעים, כך שהם יכולים להתמקד לחלוטין בבניית מוצרי AI. לשם כך גייסנו את המוחות המבריקים ביותר ממספר תחומים שונים, כדי להוות נדבך מרכזי בגל החדש של חדשנות AI.”







