גוגל עשתה אתמול את הצעד להסיר את המחויבות שלה להימנע משימוש בבינה מלאכותית לפיתוח נשק. ההחלטה הזו עוררה תגובות נזעמות בקרב העובדים, שמביעים חשש לגבי ההשלכות המוסריות. *« האם אנחנו הרעים ? »* תוהה מספר הולך וגדל מהם, המדגיש תחושת אי נוחות גוברת בתוך החברה. המניפסט האתי מ-2018 העיד על רצון להרחיק את הטכנולוגיה מהתחומים המפורסמים כמו מעקב צבאי. השינוי הנוכחי מזמין רפלקציה עמוקה על האתיקה של חברות טכנולוגיה גדולות בהקשר גיאופוליטי משתנה. החיבור בין *עסקים* וביטחון לאומי הופך למציאות מדאיגה, ויוצר תגובות חזקות בתוך גוגל עצמה.
סקירת הנחיות האתיקה של גוגל
גוגל עשתה לאחרונה סקירה משמעותית של ההנחיות האתיות שלה לגבי בינה מלאכותית (במ). החברה החזירה בשקט את המחויבות שלה לא להשתמש בבינה מלאכותית לפיתוח נשק או כלים של מעקב. השינויים הללו עוררו תגובות נזעמות בקרב העובדים, שהביעו את חוסר ההסכמה שלהם בפורומים פנימיים.
תגובות העובדים
עובדים בגוגל הביעו את אי הנחת שלהם מול ההחלטה הזו על הפלטפורמה הפנימית שנקראת Memegen. עובד אחד שיתף מם סאטירי, ששואל בחיפוש הומוריסטי איך להפוך לקבלן נשק. אחרים שאלו על ההיגיון מאחורי הכיוון החדש הזה, ותהו אם זה מעיד על שינוי מוסרי עבור החברה.
הסיבות מאחורי השינוי הזה
גוגל הצדיקה את השינוי הזה בטענה כי הביטחון הלאומי דורש שיתוף פעולה מוגבר בין חברות לממשלה. ההנהלה טענה כי יש להפעיל את הבינה המלאכותית כדי לענות על הדרישות המוצהרות של "הנוף הגיאופוליטי המורכב", תוך הדגשה של מחויבות לכיבוד זכויות האדם ולערכים דמוקרטיים.
היסטוריה של מחויבויות אתיות
בשנת 2018, גוגל הבטיחה להימנע מלהתעסק בפרויקטים שניתן לכנותם כמוסריים, במיוחד אלו הקשורים לנשק. העקביות הזו הוקמה בעקבות לחצים שהופעלו על ידי העובדים, אשר מחו על שיתופי פעולה שנעשו עם הפנטגון. ההבטחה לא לפתח טכנולוגיות שיגרמו לנזקים הייתה, ולכן, סמל חזק לערכים שהצהירה עליהם גוגל באותה תקופה.
ההשלכות האסטרטגיות
השינוי הזה מתרחש בהקשר שבו ענקיות טכנולוגיה אחרות, כמו אמזון ומיקרוסופט, כבר הקימו קשרים עם המגזר ההגנתי. גוגל, כאשר היא מקלה על ההנחיות שלה, נראה שהיא שואפת להסתגל לנטייה הגוברת להמלחמה של טכנולוגיות מתפתחות.
ה perception של ערכי החברה
העובדים, מול השינוי הזה, מרגישים תחושת אי נוחות עמוקה כלפי ערכי החברה. השאלה החוזרת ברשתות הפנימיות, "האם אנחנו הרעים ?", מדגישה את החשש שלהם מהידרדרות מוסרית. אמנם, השאלה הזאת מהדהדת בקרב הצוותים שמרגישים betrayed על ידי שיח תאגידי שעשוי כעת לשרת אינטרסים צבאיים.
לקראת עידן חדש של חדשנות הגנתית
השינויים שהתרחשו במדיניות הבינה המלאכותית מעוררים גם חששות לגבי הכיוון שהחדשנות הטכנולוגית הולכת אליו. בעוד הבינה המלאכותית ממשיכה לשנות תחומים שונים, התהליך הזה מדאיג בכך שהוא יכול להתחרות עם סטנדרטים אתיים, ובמיוחד אלו הנוגעים לריבונות אישית ולזכויות האדם.
השנים הקרובות עבור גוגל ועובדיה
לאור השינויים הללו, נראה כי גוגל עשויה להיתקל במתיחות גוברת פנימית. התנועות הסיניים והחששות הגוברות כלפי האתיקה עשויות לעצב עתיד פחות יציב עבור החברה, כאשר היא מתמודדת עם דרישה לטכנולוגיה מתקדמת והאחריות המוטלת עליה.
קריאות לפעולה של העובדים
בתוך הצוותים, קולות עולים הקוראים לשוב לעקרונות שהנחו את המחויבויות האתיות של הבינה המלאכותית. הדיונים המוגברים הללו עשויים להניע את גוגל להעריך מחדש את העדיפויות האסטרטגיות שלה, לאור הציפיות הגוברות של העובדים ושל הציבור. הנוף הטכנולוגי דורש בדיקה מעמיקה של ההשלכות של כל התקדמות בבינה מלאכותית.
שאלות ותשובות בנוגע לתגובה של עובדי גוגל להפסיק את המחויבות של החברה לנשק בבינה מלאכותית
איזה מחויבות גוגל עזבה לאחרונה בנוגע לשימוש בבינה מלאכותית ?
גוגל הסירה את המחויבות שלה לא להשתמש בבינה מלאכותית לפיתוח נשק או טכנולוגיות מעקב, מה שגרם לתגובות בקרב העובדים שלה.
איך העובדים של גוגל הגיבו לשינוי המדיניות הזה ?
מספר עובדים הביעו את חוסר הסכמתם על לוח ההודעות הפנימי של החברה, משתפים ממים קריטיים לגבי הכיוון החדש של גוגל.
מהם דוגמאות לממים ששיתפו העובדים כדי לבטא את אי הנחת שלהם ?
מם אחד הציג את המנכ"ל סונדאר פיצ'אי מחפש בגוגל איך להפוך לקבלן נשק, בעוד שמם אחר התייחס לסקיצה הומוריסטית על נאצים, שואלים אם גוגל הפכה ל"רעים".
מהי ההצהרה הרשמית של גוגל לגבי ההחלטה הזו ?
גוגל הצהירה כי זה קריטי לחברות ולממשלות לשתף פעולה למען "הביטחון הלאומי", וטוענת שערכים דמוקרטיים צריכים להנחות את הפיתוח של הבינה המלאכותית.
איזה השלכות יכולה להיות להחלטה הזו על האמונים של העובדים כלפי גוגל ?
השינוי בהנחיות האתיות של הבינה המלאכותית עלול להשפיע לרעה על האמונים של העובדים, על ידי חיזוק החששות לגבי הערכים האתיים והכיוון שעושה החברה.
האם היו תקדימים בנוגע לסוג כזה של מדיניות בגוגל ?
כן, בשנת 2018, גוגל עזבה פרויקט שיתוף פעולה עם הפנטגון, בתגובה למחאות העובדים על השימוש בבינה מלאכותית למטרות צבאיות.
האם העובדים של גוגל רק מבקרים את ההחלטה הזו ?
אם כי רבים מתנגדים למדיניות החדשה, ייתכן שבחלק מהעובדים יש תומכים בשיתוף פעולה יותר הדוק בין טכנולוגיה לביטחון לאומי.
אילו השפעות יכולה להיות להחלטה הזו על התעשייה הטכנולוגית באופן כללי ?
זה יכול לעודד חברות אחרות לבדוק את המדיניות האתיות שלהן לגבי יישום הבינה המלאכותית בתחומים רגישים, כולל מגזר ההגנה והמעקב.
איך המצב הזה יכול להשפיע על דיונים אתיים על בינה מלאכותית בעתיד ?
זה יכול להניע דיונים רחבים יותר על האחריות האתית של חברות טכנולוגיה ותפקידן בפרויקטים צבאיים או במעקב, מעודד רפלקציה קריטית על ההשלכות החברתיות של הטכנולוגיה שלהן.