Le 26 באוקטובר 2023, OpenAI הודיעה על הקמת יחידה חדשה שתהיה אחראית לפקח על מודלים של אינטגרציה מלאכותית. היחידה, המוכרת בשם Preparedness, תתמקד במניעת סיכונים קטסטרופיים שעשויים להיגרם כתוצאה מהשימוש המזיק באינטליגנציה מלאכותית. על ידי פיקוח על בטיחות ועמידות של יישומי אינטגרציה מלאכותית גנרטיבית, OpenAI מקווה להגביל את הסטיות הפוטנציאליות מכלים אלה.
שמועות על הפיתוח של GPT-5: האם אנו בדרך לאינטליגנציה מלאכותית כללית?
למרות תשומת הלב שניתנת כיום למודל GPT-4, דליפה בטוויטר מצביעה על כך ש-OpenAI עשויה להיות בתהליך של פיתוח בסודיות את GPT-5. המודל החדש צפוי להיות מוכן בדצמבר השנה, והשאיפה שלו היא להגיע לאינטליגנציה מלאכותית כללית (AGI), שתוכל להתחרות במוח האנושי בכל המשימות הקוגניטיביות. השמועה הזו מעוררת מחדש את הדיון על האתיקה והאתגרים סביב הפיתוחים העתידיים של האינטליגנציה המלאכותית.
אנתרופיק וגוגל: המתחרים שלא מתכוונים להישאר מאחור
במקביל, המגה-סטארט-אפ האמריקאי אנתרופיק ממשיך במאמצים להדביק את הפער מול OpenAI וטכנולוגיית הגנרציה שלה ChatGPT. החברה הצעירה הצליחה לאחרונה להכפיל את המימון שלה בזכות התמיכה של גוגל, שהתחייבה להשקיע 2 מיליארד דולר בפרויקט. ההשקעה תתבצע בשני שלבים: 500 מיליון דולר השקעה מיידית ולאחר מכן 1.5 מיליארד בחודשים הקרובים בצורת אג"ח המרה למניות. מהלך זה נועד לחזק את היכולות התחרותיות של אנתרופיק ולנטרל את היתרון של OpenAI.
זיהוי הונאה: כלי לזיהוי טקסטים שנוצרו על ידי ChatGPT
בהתמודדויות עם אתגרים אתיים וטכניים הקשורים לדגמים שלה, OpenAI מעוניינת גם לפתח פתרונות כדי לזהות הונאה פוטנציאלית הקשורה לשימוש בChatGPT, במיוחד בתחום החינוך. למעשה, בדיקת עבודות המופקות על ידי גנרטורים טקסטואליים הופכת לאתגר מורכב מאוד כאשר לא ניתן לזהות אם אינטיליגנציה מלאכותית היא המקור לתוכן.
כדי לפתור בעיה זו, OpenAI מציגה כלי חדש המיועד לגלות טקסטים שנכתבים על ידי ChatGPT. בדרך זו, הסיכונים להונאה ושימושים מזיקים אחרים יכולים להיות מגודלים ומנוטרים. עם זאת, יוזמות אלו מדגישות את חשיבות ההשתקפות על ההשפעות האתיות והחברתיות של פיתוח טכנולוגיות אינטיליגנציה מלאכותית.
אתגרי OpenAI: בין חדשנות טכנולוגית ואחריות חברתית
מעבר ליכולות הטכניות שמציעים המודלים שפותחו על ידי OpenAI, יש להתייחס לעומק לאתגרים אתיים המגיעים עם ההתקדמות הזו. המחקר סביב אינטגרציה מלאכותית מעלה שאלות קריטיות לגבי הגנת נתונים, הטיות אלגוריתמיות, אוטונומיה קובעת, וכן על יתר ההשגחה ושליטה על יישומי האינטליגנציה המלאכותית.
מנקודת מבט זו, יוזמות כמו הקמת צוות Preparedness או פיתוח מכשירים נגד הונאה מאפשרות לגדר יותר ביעילות את הפיתוחים הטכנולגיים ואת יישומם. יחד עם זאת, שיתוף פעולה בין שחקנים ציבוריים, פרטיים וחברתיים חייב להיות מוגבר כדי להקים מסגרת רגולציה בנוסף מורכבת ברמה בינלאומית כדי להתמודד עם אתגרי העתיד של אינטגרציה מלאכותית.