צ'אטבוטים עם אינטליגנציה מלאכותית, כגון ChatGPT ו-Copilot, *מייצרים עיוותים* במידע. הניתוח שנעשה על ידי ה-BBC מדגיש *בעיות משמעותיות* של מידע שגוי בתשובות שלהם לחדשות. כלים אוטומטיים אלו, תוך הבטחה להקל על הגישה למידע, לעיתים קרובות מייצרים תוכן עם הטיות ומסלולים. *חוסר דיוק בעובדות* מטיל ספק באמון הציבור כלפי טכנולוגיות מתפתחות אלו. הדו"ח מדגיש את היקף השגיאות, המגיע לעיתים קרובות למידע קריטי על אירועים אחרונים ודמויות פוליטיות.
תוצאות מדאיגות של המחקר של ה-BBC
מחקר שנעשה על ידי הBBC מגלה כי סייעני אינטליגנציה מלאכותית (IA) מייצרים תשובות שגויות ומסלילות בנוגע לחדשות. יותר מחצי מהתשובות שנוצרו על ידי כלים כמו ChatGPT, Copilot, Gemini וPerplexity מראות "בעיות משמעותיות". עיתונאים מה-BBC, המתמחים בנושאים אלו, העריכו את התשובות בהתבסס על מאמרים מהמערכת שלהם.
טבע השגיאות שנצפו
השגיאות שנמצאו כוללות טענות שאינן נכונות עובדתית. לדוגמה, כלים אלו זיהו את רישי סונאק וניקולה סטורג'ון כמנהיגים פעילים, דבר שאינו מדויק. מידע שגוי לגבי עישון בסיגריות אלקטרוניות, וכן בלבול בין דעות ובעובדות עדכניות, הם חלק מהעיוותים שנצפו.
דוגמאות קונקרטיות לחוסר דיוק
החוקרים שאלו את ה-AI 100 שאלות בהתבסס על מאמרים מה-BBC. כ-20% מהתשובות הכילו שגיאות עובדתיות הקשורות במספרים, תאריכים או הצהרות. כמעט 13% מהציטוטים שנטען שהם מה-BBC היו או מעוותים או חסרים במאמרים המוזכרים.
תגובה של Gemini לשאלה לגבי אשמת הסבתא הניאונטלית לوسي לטבי לא ציינה את ההקשר של ההרשעות שלה ברצח. Copilot של Microsoft סיפק מידע שגוי על המקרה של הקורבן גיזל פליוק, כאשר הוא עיוות את הסיפור שלה. ChatGPT שוב מנה את שמו של איסמעיל הנייה כחבר פעיל בחמאס, מספר חודשים לאחר מותו באיראן.
תגובות ה-BBC לנוכח הממצאים הללו
דברוחה טורנס, המנכ"לית של החדשות ב-BBC, כינתה את התוצאות הללו מדאיגות. היא מזהירה כי כלים אלו של IA "משחקים באש", ומסכנים את האימונה השברירית של הציבור בעובדות. בפוסט בבלוג, היא שואלת על היכולת של ה-AI לעבד מידע חדשותי מבלי לעוות את העובדות.
הסיכונים לחברה
הממצאים של מחקר זה מדגישים סיכונים לא רק לאמינות המידע, אלא גם לאיומיים של הדמוקרטיה. מידע שגוי המיוצר על ידי IA מעורר דאגות חמורות. האלגוריתמים, שלעתים קרובות אינם מושלמים, יכולים לעוות מידע רגיש עם תוצאות פוטנציאליות מזיקה.
קריאה לשיתוף פעולה
טורנס גם הציעה שיתוף פעולה עם חברות IA כדי לשפר את הדיוק של התשובות הניתנות מעדויות עיתונאיות. עבודה יחד יכולה לאפשר שליטה טובה יותר בהשימוש במידע ולהפחית את השגיאות.
ההקשר העולמי של המידע השגוי המיוצר על ידי IA
תופעה זו אינה מוגבלת ל-BBC. דאגות דומות עולות על פני פלטפורמות מידע רבות. דוגמאות עדכניות ממחישות את השימוש בעוזרי IA כדי להפיץ סיכומים שגויים. לדוגמה, Apple השעתה את התראות חדשות המותג BBC לאחר שנתקלה בבעיות עם תוכן בלתי מדויק.
התרבות של מידע שגוי דרך טכנולוגיות אלו מכרסמת את היסודות של האמון הציבורי במידע. הסכנות הקשורות ל-AI שאינה מפוקחת מצריכות תשומת לב מיוחדת כדי להגן על הבד ткани החברתי.
מגמות מעוררות דאגה שיש לעקוב אחריהן
המגמות העולמיות מעידות על תלות מוגזמת ב-AI בהפקת חדשות. הציבור צריך להיות ערני ולפתח מיומנויות ביקורתיות מול המידע. זיהוי דיפפייקים ומקורות מידע מהימנים הופך להיות חיוני.
באמצעות מחקר זה, ה-BBC מדגישה חובה: המשתמשים צריכים לדרוש רגולציה הדוקה על התוכן המיוצר על ידי IA. הצורך במסגרת ברורה ושקופה הופך להיות דחוף יותר ויותר כדי להבטיח את שלמות המידע בעידן הדיגיטלי.
השאלה של שליטת תוכן על ידי עיתונאים עולה. העיתונאים ובתי הדפוס חייבים לשמר את תפקידם המרכזי במידע כדי למנוע מהסטנדרטים העיתונאיים להיחלש מול עליית הטכנולוגיות הגנרטיביות.
שאלות נפוצות על צ'אטבוטים IA ומידע שגוי
מהם הסיכונים העיקריים הקשורים לשימוש בצ'אטבוטים IA לגלם מידע?
צ'אטבוטים IA יכולים להכניס עיוותים וחוסר דיוק בעובדות, מה שמסכן את האמינות של המידע המוצע, במיוחד לגבי חדשות ועניינים נוכחיים.
כיצד ה-BBC העריכה את האמינות של התשובות שסיפקו צ'אטבוטים IA?
ה-BBC ערכה מחקר שבו נבדקו ארבעה כלים של IA גנרטיבית responddent ל-100 שאלות המבוססות על מאמרים מה-BBC. התשובות הוערכו על ידי עיתונאים מתמחים, אשר הצביעו על כך שיותר מחצי הכילו "בעיות משמעותיות".
אילו שגיאות ספציפיות נמצאו בתשובות של צ'אטבוטים?
השגיאות כוללות הצהרות שגויות על דמויות פוליטיות, כמו תביעה ש"רישי סונאק" ו"ניקולה סטורג'ון" היו עדיין בתפקיד, כמו גם מידע שגוי על הנחיות בריאות הציבור בנוגע לעישון בסיגריות אלקטרוניות.
למה ה-BBC סבורה כי כלים של IA גנרטיבית מאיימים על האימונה של הציבור בעובדות?
כלים אלו יכולים לייצר תוכן מסלל, מה שמוביל לבלבול נרחב ואי אמון גובר במקורות חדשות אמיתיים, مما יוצר מטרד נוסף בניהול מידע.
כיצד חברות מדיה יכולות לשתף פעולה עם מפתחים של IA כדי לשפר את הדיוק של המידע?
חברות צריכות להקים שיתופי פעולה עם חברות IA כדי להבטיח שהשימוש בתוכן שלהן מנוהל בדרך שתעזור לדיוק ולאחראיות בטיפול במידע.
האם המשתמשים יכולים לסמוך על המידע שמסופק על ידי צ'אטבוטים IA?
המשתמשים צריכים להראות זהירות ולבדוק את המידע המתקבל דרך כלים אלו, במיוחד כשיש ספק לגבי דיוקם, שכן התשובות עשויות להכיל חוסר דיוק משמעותי.
אילו אמצעים ניתן לנקוט כדי לצמצם את המידע השגוי המיוצר על ידי צ'אטבוטים IA?
חשוב ליישם רגולציות, לשפר את החינוך התקשורתי ולקדם אלפביתיות דיגיטלית כדי להעלות את המודעות לסיכוני מידע שגוי.