האתגרים עימם מתמודדות חברות מתעצמים בעידן של אינטליגנציה מלאכותית. _הופעת הטכנולוגיות החדשות_ מביאה לאיומים שלא היו כמותם, ודורשת ערנות מוגברת. סיסקו, חלוץ שאין לו תחליף בתחום _הסייבר אבטחה מתקדמת_, מציבה את עצמה כדי להתמודד עם סיכונים אלו בעזרת פתרונות חדשניים. הארגונים חייבים לאמץ אסטרטגיות דינמיות כדי _לשמור על שלמות המערכות שלהם_. ההתנהגויות העוינות מתפתחות, כמו גם הגישות הנדרשות לזיהוי ולמניעתן. המרוץ הטכנולוגי מחייב הערכה מחודשת של הפרדיגמות המוכרות באבטחה, ומביא את סיסקו לאתגר גדול.
העלייה בכוח של אינטליגנציה מלאכותית בפעולות העסקיות מביאה להופעת סיכונים חדשים לאבטחה. האיומים בCybersecurity מתפתחים בקצב חסר תקדים, ומעלים את יכולת הפתרונות המסורתיים. שינויים אלו דורשים התאמה משמעותית לאסטרטגיות ההגנה של החברות.
דו"ח סיסקו על המדד ההכנה לאינטליגנציה מלאכותית 2024 חושף כי רק 29% מהארגונים שנבדקו סבורים שהם מצוידים לגמרי כדי לזהות ולמנוע מניפולציות לא מורשות בטכנולוגיות הקשורות לאינטליגנציה מלאכותית. פער מדאיג, כשחברות מחויבות יותר ויותר לאוטומציה ולשימוש בכלים חכמים.
אישור מתמשך של מודלים
לפי די ג’י סמפת', מנהל התוכנה והפלטפורמות AI בסיסקו, האישור של מודלים אינו מוגבל לאירוע אחד בלבד. הוא דורש תהליך של הערכה מתמשכת. כל שינוי שמבוצע במודל, בין אם מדובר בכוונונים עדינים או בהופעה של טכניקות התקפה חדשות, דורש עדכון מתמיד של קריטריוני האישור.
צוותי המחקר על איומים של סיסקו מתמחים בלימוד התקפות נגד אינטליגנציה מלאכותית. הם מנסים להבין כיצד ניתן להחמיר את ההתקפות הללו, ובכך תורמים לעבודה של קבוצות נורמטיביות בארגונים כמו MITRE, OWASP, וNIST. מחקר זה מבטיח מנגנונים חזקים לצפות ולהשמיד איומים מתהווים.
הפגיעויות של מודלים של אינטליגנציה מלאכותית, חשופים להשפעות חיצוניות עוינות, הן בעיה מרכזית. התקפות בהזרקת שאילתות, פריצה לשחזור, וזיהום נתוני האימון מהוות דוגמאות לסיכונים שדורשים כלים מניעתיים קפדניים.
מורכבויות של התפתחות
פרנק דיקון, vicepresidente grupo לאבטחה ואמון ב- IDC, מדגיש את ההתפתחות המתמדת של האבטחה הסייבר. המעבר ממערכות עלאת לאוויר שינה באופן דרמטי את המצב, וגרם לאתגרים חדשים. המעבר לארכיטקטורת מיקרו-שירותים גם יצר מערכת של בעיות שונות שצריך לפתור.
עם הופעת מודלים של שפה גדולה (LLM), רמת המורכבות בתחום האבטחה המחשובית מתעצמת. הפגיעויות עשויות להתבטא ברמות שונות, עלולות להשפיע על בעלי עניין כמו מפתחים, משתמשים סופיים, וספקים.
היציבות של אפליקציה המוצבת בסביבה בענן, אם זה בAWS, Azure, או GCP, מראה מעט קריאות לשינויים תכופים. ברגע שמערכת הוקמה, היא נשארת בעיקר באקוסיסטם זה. המעברים בין אפליקציות, כמו בין ארכיטקטורה מונוליטית ושירותי מיקרו, פחות גמישים, ודורשים מנגנוני אבטחה המתאימים לכל הקשר.
שינויים במודלים כמו אלו של LLM כרוכים ביותר מעדכונים פשוטים. כל מודל מציע וקטורי איומים שונים, כל אחד עם יתרונות וחסרונות משל עצמו. סיסקו מציעה בקרות עבור סביבה רב-מודלית באמצעות פתרון AI Defense, המתקדם אוטומטית בהתאם לאיומים המוכרים על ידי המערכות הפנימיות.
לאמץ את הפרדיגמה החדשה
ג'יטו פטל, סגן נשיא בכיר ומנהל מוצרים בסיסקו, מציין כי ההתקדמות המרכזיות נותנים לעיתים קרובות את התחושה של מהפכות, לפני שהן הופכות במהרה לנורמה. תופעה זו נראית, למשל, עם הניסיון של רכבים אוטונומיים Waymo, מזכירה כי המעבר לטכנולוגיה חדשה עשויה להתלוות לאדישות כלפי השלכותיה העתידיות.
הנוחות של שימוש בטכנולוגיות כמו AI וChatGPT מתגבשת במהירות, מפחיתה את השפעתן הראשונית. פטל מדגיש כי היכולת לפעול כחברה אחראית תלויה בהתאמה מהירה לחדשניות הקטנות של אינטליגנציה מלאכותית.
לכן, החברות צריכות לצפות ולהתאקלם לשינוי. המכונה בעבודתה, והחברות צריכות להיות מוכנות לנצל זאת תוך פתיחת הדרך לעתיד שבו חדשנות טכנולוגית ואבטחה הם בלתי נפרדים.
כדי לחקור את האתגרים האבטחתיים הקשורים לאינטליגנציה מלאכותית, חקרו אירועים נוספים בתחום הטכנולוגיה העסקית. מספר רב של כנסים עוסקים בנושאים קריטיים אלו, המעידים על החשיבות של שיתוף פעולה בין חברות.
חדשות האחרונות בולעות גם את חיזוק האמצעים האבטחתיים, במיוחד עם שנים מחדש של הפגיעויות על ידי מייקרוסופט והשיחות על מגבלות ייצוא הקשורות לשבבי AI בין ארצות הברית וסין. נושאים אלו משקפים דאגות משותפות לנותני השירות בתחום.
שאלות נפוצות: סיסקו – הגנה על חברות בעידן של אינטליגנציה מלאכותית
מה הם האתגרים המרכזיים של אבטחת הסייבר לחברות שמשתמשות באינטליגנציה מלאכותית?
האתגרים המרכזיים כוללים את זיהוי ההתעללות באינטליגנציה מלאכותית, הגנה מפני התקפות ממוקדות כמו חטיפת מודלים, וניהול הפגיעויות הקשורות לשילוב של טכנולוגיות אינטליגנציה מלאכותית בתשתיות קיימות.
כיצד סיסקו מסייעת לחברות לאבטח את המודלים שלהן של אינטליגנציה מלאכותית?
סיסקו מציעה פתרונות אבטחה מובנים שכוללים כלים לזיהוי חריגות, אישורים מתמשכים של מודלים של אינטליגנציה מלאכותית, ואסטרטגיות הגנה מתקדמות כדי להתמודד עם האיומים הספציפיים לאינטליגנציה מלאכותית.
מהו המדד להכנת אינטליגנציה מלאכותית ולמה הוא חשוב לחברות?
המדד להכנת אינטליגנציה מלאכותית מעריך עד כמה חברות מוכנות לזהות ולמנוע מניפולציות לא מוסריות בטכנולוגיות אינטליגנציה מלאכותית, מה שחשוב כדי להבטיח אמון וביטחון של מערכות אינטליגנציה מלאכותית שהוצבו.
מהן השיטות המומלצות לאשר באופן מתמשך את המודלים של אינטליגנציה מלאכותית?
מומלץ לבצע תהליכים של הערכה רגילה, כולל ניסיונות חדירה, עדכונים של נתוני האימון, והערכות של האלגוריתמים בהתבסס על הופעת איומים חדשים.
למה הכרחי לכלול צוות מחקר על איומים באבטחת האינטליגנציה המלאכותית?
צוות מחקר ייעודי יכול לעקוב אחרי המגמות החדשות בתחום האיומים, לפתח אמצעי נגד יעילים, ולספק תובנות חשובות כדי להתאים את אסטרטגיות האבטחה בזמן אמת לנוכח השינויים המהירים בנוף האיומים.
איך חברות יכולות ליהנות מהשימוש במודלים רחבים של שפה (LLM) בבטחה?
חברות יכולות ליהנות מה-LLM על ידי שילובם בסביבות מאובטחות, שמירה על ערנות לאיומים ספציפיים למודלים השונים, ושימוש בפתרונות אבטחה שמתאימים לשינויים התכופים במודלים של אינטליגנציה מלאכותית.
אילו אסטרטגיות סיסקו מציעה כדי לנהל את וקטורי האיומים בסביבה רבת מודלים?
סיסקו מציעה בקרות אבטחה específicas עבור סביבות רבת מודלים, כגון פתרונות אינטליגנציה מלאכותית המשתמשים באלגוריתמים של למידת מכונה כדי לזהות ולהגיב לדאגות אבטחה מתפתחות.
איך חברות צריכות להתכונן לנורמליזציה של אינטליגנציה מלאכותית בעמדת האבטחה שלהן?
חברות חייבות לפתח מדיניות אבטחה חזקות, להכשרה באופן קבוע בטכנולוגיות אינטליגנציה מלאכותית החדשות, וליישם פתרונות אבטחה מעשיים שמתקדמים באותו קצב של ההתקדמות של הטכנולוגיות של אינטליגנציה מלאכותית.