מחקרים מגלים כי מודלים של שפה מתקדמים יכולים לבצע התקפות כופרה באופן עצמאי

Publié le 6 ספטמבר 2025 à 09h23
modifié le 6 ספטמבר 2025 à 09h24

ההתפתחויות בתחום הבינה המלאכותית משנות באופן רדיקלי את הנוף של הסייבר. מודלי שפה מתקדמים צצים כאיום חדש ומסוכן. טכנולוגיה זו מאפשרת כעת את הביצוע האוטונומי של התקפות כופר, ומספקת לפושעי סייבר כלים חזקים כדי לפגוע במערכות מגוונות. ההשלכות הכלכליות והטכניות של יכולות כאלה הן מדאיגות, מסכנות את האבטחה של נתונים רגישים. הכנה לתגובה נאותה הופכת עדיפות עבור המגינים מול איום זה, שמאופיין בסיבוכים חדשים.

התקפות כופר אוטונומיות בהנחיית AI

מחקר עדכני שנערך על ידי צוות בית הספר להנדסה של NYU טנדון חשף תופעה מדאיגה: מודלי שפה מתקדמים יכולים כעת לבצע התקפות כופר באופן אוטונומי. מחקר זה, שפורסם בשרת ההדפסה המוקדמת arXiv, פיתח מערכת כופר הנקראת "Ransomware 3.0". אב טיפוס זה מסוגל למפות מערכות, לזהות קבצים רגישים, לגנוב או להצפין נתונים ולכתוב הודעות כופר.

אופן פעולתה של מערכת Ransomware 3.0

מערכת זדונית זו עוצבה כדי להדגים את היכולת של בינה מלאכותית לארגן כל שלב של התקפה. Ransomware 3.0, שנקרא "PromptLock" על ידי חברת הסייבר ESET, התגלה בפלטפורמת VirusTotal במהלך ניסוייו. החוקרים הצליחו להוכיח כי האב טיפוס, שעוצב במעבדה, יכול לייצר קודים פונקציונליים, כשהוא מטעה בתחילה כמה מומחים שחשבו כי גילו כופר פעיל אמיתי, שהתפתח על ידי שחקנים זדוניים.

סיבוכיות ההתקפות המיוצרות על ידי AI

ההתקפות המיוצרות על ידי AI מתבלטות בשיטת ההוצאה לפועל הייחודית שלהן. בניגוד לקודי התקפה מוכנים מראש, התוכנה הזדונית כוללת הנחיות כתובות בתוכניות, והנחיות אלו מפועלות על ידי מודלים לשוניים. כל הפעלה של התוכנה המזיקה מתקשרת עם מודלים של AI כדי ליצור סקריפטים בשפת Lua מותאמים להגדרה הספציפית של כל מכונה שנבחרה.

הגנה וגילוי במרחב הסייבר

ההשלכות הכלכליות של מחקר זה suggest שינוי משמעותי בדרך בה מתבצעות פעולות הכופר. עד כה, דרושות היו צוותי פיתוח מוסמכים, כמו גם השקעות משמעותיות בתשתית. אב הטיפוס Ransomware 3.0 דורש רק כ-23,000 טוקנים של AI לכל התקפה, המייצגים עלות של כ-0.70 $. השימוש במודלי AI בקוד פתוח מבטל אפוא את העלויות הקשורות לשירותים מסחריים.

המערכות הגילוי הנוכחיות מתמודדות עם אתגר משמעותי. תוכנות האבטחה המסורתיות מתבססות על גילוי של חתימות זדוניות מוכרות או התנהגויות טיפוסיות. עם זאת, ההתקפות המיוצרות על ידי AI מייצרות קודים מגוונים שיכולים לעקוף בקלות את המערכות ההגנתי. המבחנים שבוצעו הראו כי מודלי AI מסוגלים לזהות בין 63% ל-96% מהקבצים הרגישים, בהתאם לסוג הסביבה, מה שמדגיש את היעילות של טכניקות אלו החדשות.

צעדי הכנה והמלצות

החוקרים מדגישים את החשיבות להרחיב את המעקב אחר הגישות לקבצים רגישים ולמנוע חיבורים של שירותי AI יוצאים. בנוסף, הכרחי לפתח יכולות גילוי שנועדו במיוחד להתנהגויות התקפה המיוצרות על ידי AI. המלצות אלו מכוונות להכין את קהילת הסייבר להגיב מול איומים מתפתחים המנצלים יכולות בינה מלאכותית מתקדמות.

מחקר זה, המנוהל על פי קווים מנחים אתיים מוסדיים, מספק הבנות חשובות ופרטים טכניים המובילים את קהילת הסייבר להבין יותר טוב את האיום החדש הזה. האתגר הוא כעת לחזק את ההגנות מול מערכות אלו האוטונומיות ולהתמודד עם טכניקות חדשות של כופר שיכולות לשנות את הנוף של פשעי הסייבר.

שאלות נפוצות: מחקרים מגלים כי מודלי שפה מתקדמים יכולים לבצע התקפות כופר באופן אוטונומי

מהו ransomware 3.0 וכיצד הוא פועל?
ה-ransomware 3.0, הידוע גם בשם PromptLock, הוא מערכת זדונית המסוגלת לבצע התקפות כופר באופן אוטונומי באמצעות מודלי שפה מתקדמים. הוא מבצע מספר שלבים, כולל מיפוי מערכות, זיהוי קבצים רגישים, גניבה או הצפנה של נתונים, וליצור הודעות כופר.

מהם הסיכונים הקשורים להתקפות כופר המונעות על ידי AI?
ההתקפות הכופר המנוגנות על ידי AI מציבות מספר סיכונים, כולל יכולת טובה יותר לעקוף את ההגנות של הסייבר על ידי יצירת קוד ייחודי, מכיוון שהן אינן מתבססות על חתימות של תוכנות זדוניות מוכרות.

כיצד יכולות חברות לשמור על עצמן מפני איומים אלה על ידי AI?
חברות צריכות לעקוב אחרי מודלי הגישה לקבצים רגישים, לבדוק חיבורים יוצאים לשירותי AI ולפתח יכולות גילוי ספציפיות כדי לזהות את התנהגויות ההתקפות המיוצרות על ידי AI.

אילו סוגי מערכות יכולות להיפגע על ידי סוג זה של כופר אוטונומי?
סוג זה של כופר יכול לכוון למערכות מגוונות, כולל מחשבים אישיים, שרתי חברות ומערכות בקרת תעשייה, בשל העיצוב הגמיש והאינטרו-אופרטיבי שלה.

מהו המשמעות של המחקר על ransomware 3.0 עבור קהילת הסייבר?
מחקר זה הוא חיוני מכיוון שהוא עוזר למומחי הסייבר להבין ולחזות את האיומים החדשים. הוא מספק מידע טכני חיוני להכנת נגד אפקטיבית.

איך הפחתת עלויות השקת התקפות משפיעה על הנוף של פשיעת הסייבר?
הפחתת העלויות הקשורות להתקפות כופר באמצעות השימוש במודלי AI בקוד פתוח מאפשרת לשחקנים פחות משוכללים לבצע קמפיינים מתקדמים, ובכך מגבירה את מספר ההתקפות הפוטנציאליות.

actu.iaNon classéמחקרים מגלים כי מודלים של שפה מתקדמים יכולים לבצע התקפות כופרה באופן...

הבינה המלאכותית מול הבינה המלאכותית: גילוי מידע שגוי

découvrez comment l'intelligence artificielle peut être utilisée pour détecter les faux reçus créés par d'autres systèmes d'ia. analyse, enjeux et solutions pour renforcer la sécurité des transactions numériques.
découvrez comment anthropic a conclu un accord historique avec des auteurs, marquant une première dans la résolution d'une affaire de violation de droits d'auteur impliquant l'intelligence artificielle.
découvrez comment les chatbots imitent des émotions humaines et pourquoi ils ont tendance à être trop accommodants, un phénomène appelé sycophantie. analyse des enjeux et impacts sur la communication homme-machine.

מקסם את התשואות על השקעות עם AI גנרטיבי: המגזרים שכדאי לחקור

découvrez comment l'ia générative peut booster vos retours sur investissement. analyse des secteurs clés à explorer pour maximiser votre performance grâce à cette technologie innovante.
découvrez dans cette analyse approfondie comment les conversions du trafic généré par l’intelligence artificielle se comparent à celles du trafic organique, afin d’optimiser vos stratégies digitales et booster vos performances en ligne.
anthropic investit 1,5 milliard de dollars pour éviter un procès concernant le téléchargement illégal de livres, dans le but de renforcer ses pratiques éthiques et sa position dans le secteur de l'ia générative.