מכשירי אינטליגנציה מלאכותית, כמו ChatGPT, Gemini ו-Perplexity, הולכים ומשתרשים בהדרגה כמקורות מידע מועדפים. המשיכה של טכנולוגיות אלו טמונה ביכולתם לספק תשובות מהירות. מחקר עדכני, שנערך על ידי קונסורציום של תחנות רדיו וטלוויזיה ציבוריות, מדגיש אי וודאות מדאיגה במידע שהם מעבירים. התוצאות חושפות שגיאות מהותיות תכופות, מה שמ compromette את אמיתות התכנים המוצעים. הניסיון מראה ש, מול עולם רווי מידע, האמינות של העוזרים של אינטליגנציה מלאכותית נותרת מאוד שנויה במחלוקת, מה שמציב אתגר משמעותי בעידן הדיגיטלי הנוכחי.
אי וודאות במידע שמספקות העוזרות של אינטליגנציה מלאכותית
מחקר עדכני, שפורסם ב-22 באוקטובר, מדגיש את החסרונות של עוזרים חכמים כמו ChatGPT, Gemini של גוגל, Copilot של מייקרוסופט ו-Perplexity בכל הנוגע ליכולתם לספק מידע אמין. המחקר, שנערך על ידי תחנות רדיו וטלוויזיה ציבוריות אירופיות, חושף שגיאות מדאיגות בכמעט 45% מהתשובות שסיפקו אינטליגנציה מלאכותית אלו. מידע ישן, שגיאות מהותיות ופרטים דמיוניים לרוב מעיבים על תשובותיהם.
תוצאות מחקר שיתופי
המבחן כלל עשרים ושניים אמצעי תקשורת ציבוריים מעשרה עשרה מדינות אירופיות, שהגישו את אותן שאלות חדשות לעוזרי האינטליגנציה המלאכותית. מתוך כ-3,000 תשובות שנבחנו, מספר ניכר הצביע על "בעיות חמורות". המחקר, שמתואם על ידי האיגוד האירופי של רדיו וטלוויזיה (UER) ומבוסס על עבודות קודמות של ה-BBC, מדגיש מגמה מדאיגה: תשובה אחת מכל חמש הכילה שגיאות חמורות.
ניתוח ביצועי העוזרים השונים
על פי המחקר, Gemini של גוגל מתבלט בתוצאותיו הרעות במיוחד. אכן, 76% מתשובותיו הכילו בעיות משמעותיות, הרבה מעבר לביצועי המתחרים שלו. החוקרים מייחסים חולשה זו ליכולות חסרות לצטט את מקורות המידע בצורה נכונה. חוסרים כאלה מטילים ספק בכנות המידע המופץ באמצעות טכנולוגיות אלו.
דוגמאות לשגיאות בולטות
כאשר נשאל על האפיפיור, ChatGPT, Copilot ו-Gemini השיבו כולם כי פרנסיס עדיין בתפקיד, בעוד שהוא כבר מת. חוסר הדיוק הזה מפנה שאלות רציניות לגבי האמינות של נתונים היסטוריים שמסופקים על ידי מערכות אלו. כמו כן, אירוע במהלך השבעת דונלד טראמפ גילה שגיאות מגוחכות, כאשר Gemini פרשה כרוניקה סאטירית ברצינות. תשובה אבסורדית זו, שהצהירה כי אלון מאסק חווה "זקפה ביד הימנית", מעידה על חוסר יכולת חמור לשפוט.
שימוש הולך ומתרקם של אינטליגנציה מלאכותית לקבלת מידע
עם זאת, העוזרים של אינטליגנציה מלאכותית חווים עלייה חדה, במיוחד בקרב הדור הצעיר. מחקר עדכני של מכון רויטרס מצביע על כך שכ-15% מהמשתמשים מתחת לגיל 25 פונים לכלים אלו כל שבוע כדי להתעדכן בחדשות. למרות התוצאות המאכזבות, מגמה זו מדגימה תלות הולכת ומתרקמת בטכנולוגיות חדשות לצריכת מידע.
אפשרויות לשיפור
מומחים בתחום, כמו ז'אן פיליפ דה טנדר ופי ג'ו ארצ'ר, מזהירים על הצורך הדחוף ברפורמה. העוזר האינטליגנטי זקוק להתפתחות משמעותית כדי להבטיח מידע איכותי ולמנוע את תפוצת חילוקי הדעות. ארגונים כמו ה-UER וה-BBC שוקלים ליצור מדריך מעשי שיעזור הן למפתחים והן למשתמשים לנווט בנוף המורכב של מידע המיוצר על ידי אינטליגנציה מלאכותית.
לעומק בנושא זה, אנא עיינו במאמר הבא על עליית האינטליגנציה המלאכותית, העוסק בהשלכות של טכנולוגיות אלו על הגישה שלנו למידע.
שאלות נפוצות
מהן השגיאות העיקריות שביצעו אינטליגנציה מלאכותית כמו ChatGPT ו-Gemini בנוגע לחדשות?
הטעויות העיקריות כוללות מידע ישן, תשובות שגויות, ופרטים דמיוניים. מחקר גילה ש-45% מהתשובות של אינטליגנציה מלאכותית הכילו לפחות בעיה אחת משמעותית.
מדוע העוזר האינטליגנטי Gemini קיבל את התוצאות הגרועות ביותר במחקר על חדשות?
Gemini הציג "בעיות מהותיות" ב-76% מתשובותיו, בעיקר בשל ביצועיו הרעים בנוגע לציטוט מקורות ואמיתות המידע.
איך משתמשים יכולים להבטיח את אמינות המידע שסיפקו העוזרים של אינטליגנציה מלאכותית?
מומלץ תמיד לבדוק את המידע המתקבל על ידי האינטליגנציה המלאכותית מול מקורות מהימנים ומוכרים, ולא להסתמך עליהם בלבד. הצלבת המידע היא חיונית להערכת אמיתותם.
האם הצעירים משתמשים לעיתים קרובות בעוזרי האינטליגנציה המלאכותית כדי לקבל מידע? אם כן, מה הסטטיסטיקה?
כן, על פי דו"ח, 15% מהצעירים מתחת לגיל 25 משתמשים בעוזרים אלו כל שבוע כדי לקבל סיכום חדשות, מה שמדגיש את הפופולריות שלהם הגואה למרות אמינותם המוטלת בספק.
באילו סוגי תוכן העוזרים של אינטליגנציה מלאכותית מתבלבלים?
העוזרים של אינטליגנציה מלאכותית יכולים להתבלבל בין מידע עובדתי לכרוניקות קומיות, כפי שמעיד המחשה שבה Gemini טעה בפירוש כרוניקה סאטירית, לקח אותה ברצינות.
מהן העצות שניתן לתת לשימוש בטוח בעוזרי אינטליגנציה מלאכותית במהלך חיפושי מידע?
השתמשו בעוזרי אינטליגנציה מלאכותית ככלי לחיפוש ראשוני, אך תמיד ערכו בדיקות מול מקורות אנושיים ומהימנים לפני שמחשיבים את המידע כאמיתות.
האם תוצאות המחקר על העוזרים של אינטליגנציה מלאכותית משפיעות על השימוש בהם בתקשורת?
בהחלט, המחקר מדגיש את אי הוודאות של המידע שמסופק על ידי כלים אלו, דבר שמניע את התקשורת להיות זהירה לגבי השימוש בהם כדי להתעדכן או להעביר חדשות.