על בינה מלאכותית וזכויות אדם

אילוסטרציה: ראש העשוי מחלקי מנוע מסמל בינה מלאכותית (צילום: AP Photo/Martin Meissner)
AP Photo/Martin Meissner
אילוסטרציה: ראש העשוי מחלקי מנוע מסמל בינה מלאכותית

במעמד החתימה תצהיר כל מדינה האם בכוונתה להחיל את ההתחייבויות לניהול ומיגור הסיכונים גם על חברות במגזר הפרטי – והיא גם תוכל לחזור בה בכל עת. האם באמת אפשר לקבוע שזוהי ערובה לכך שבינה מלאכותית תמשיך להתפתח באופן אחראי ואמין?

*  *  *

באמצע מרץ נחגג הישג בינלאומי בתחום הרגולציה: מועצת אירופה הציגה את "האמנה הבינלאומית הראשונה בדבר זכויות אדם, דמוקרטיה ושלטון החוק בהקשר של מערכות בינה מלאכותית".

באמצע מרץ נחגג הישג בינלאומי בתחום הרגולציה: מועצת אירופה הציגה את "האמנה הבינלאומית הראשונה בדבר זכויות אדם, דמוקרטיה ושלטון החוק בהקשר של מערכות בינה מלאכותית"

הצורך באמנה בינלאומית נובע מריבוי הגישות השונות של מדינות לרגולציה של בינה מלאכותית מצד אחד, והעובדה שמדובר בטכנולוגיה חוצת-גבולות מצד שני. לכן נדרשות הסכמות גלובליות, ומועצת אירופה כללה בתהליך הניסוח מדינות משקיפות ללא זכות הצבעה כגון ארצות הברית, קנדה, יפן, וגם מדינת ישראל.

פרסום בטוויטר של המשנה ליועמ"ש לענייני משפט בינלאומי, ד"ר גיל-עד נועם, שאליו התלווה פרסום בלינקדאין של מערך הדיגיטל הלאומי, לימדו אותנו על כך. את הנוסח שהוסכם תצטרך לאשר ועדת השרים של האיחוד האירופי בחודש מאי ואז יוכלו המדינות המשקיפות להצטרף ולחתום על האמנה אם ירצו בכך.

לפי נוסח האמנה, מפעילי מערכות בינה מלאכותית נדרשים לעמוד במגבלות של פרטיות, עיבוד נתונים ראוי וביצוע הערכת סיכונים. אלא שכרגיל, המהות מסתתרת בפרטים הקטנים. לפי הנוסח שעליו הוסכם, במעמד החתימה תצהיר כל מדינה האם בכוונתה להחיל את ההתחייבויות לניהול ומיגור הסיכונים גם על חברות במגזר הפרטי והיא גם תוכל לחזור בה בכל עת.

החרגת הפיקוח על בינה מלאכותית בשימוש המגזר הפרטי מתחולת האמנה היא בעייתית משלוש סיבות עיקריות:

ראשית, רוב הפיתוח של מוצרי בינה מלאכותית נעשה במגזר הפרטי, ולכן גם כאשר יגיעו למגזר הציבורי מוצרים שפותחו באופן לא מפוקח יהיה מאוחר מדי.

שנית, הדבר מאפשר לתאגידי הביג-טק להמשיך ולהעצים את כוחם לא רק כשחקנים מדינתיים ענקיים אלא כשחקני סדר עולמי בלתי מפוקחים.

ושלישית, והחשוב ביותר: יש אינספור ראיות שמערכות בינה מלאכותית לא מפוקחות, החל בשירותי בריאות והחלטות לגבי גיוס כוח אדם, עובר במתן אשראי וביטוח, וכלה במעקב במקומות עבודה ומרכזי קניות – משכפלות הטיות, מייצרות תוצאות לא הוגנות, ומובילות לדיכוי זכויות וחירויות של אנשים. החרגת המגזר הפרטי מהאמנה היא החרגת מקורות הסיכון הגדולים של הבינה המלאכותית כיום.

מערכות בינה מלאכותית לא מפוקחות – משכפלות הטיות, מייצרות תוצאות לא הוגנות, ומובילות לדיכוי זכויות פרט. החרגת המגזר הפרטי מהאמנה היא החרגת מקורות הסיכון הגדולים של הבינה המלאכותית כיום

בנוסף, המדינות אינן נדרשות להחיל את האמנה על בינה מלאכותית בשירות הביטחון הלאומי. צורכי הביטחון מובנים, אך אופן ניסוח ההחרגה – בלי כללי נחיצות או מידתיות, יוכל לשמש כתירוץ למעקב המונים ולצמצום זכויות במעטה של שמירה על הביטחון.

אין זה מפתיע, לפיכך, שמומחי בינה מלאכותית וזכויות אדם ועשרות ארגוני חברה אזרחית פרסמו מכתבים הטוענים שהאמנה מעניקה פטור מסוכן לחברות פרטיות ולגופי ביטחון.

בשל הביקורת הוחלט שהליך הניסוח יהפוך למשא  ומתן חשאי בין האיחוד לבין מדינות משקיפות, ובראשן ארצות הברית, ממנו מודרו ארגוני החברה האזרחית באופן המנוגד לכללי מועצת אירופה עצמה. מנגד, לחצים מצד שתדלנים, שפגעו במשא ומתן על נוסחו הסופי של חוק הבינה המלאכותית האירופי בדצמבר האחרון, השפיעו גם כאן.

הוועדה האירופית שייצגה את האיחוד במשא ומתן התנגדה להחרגת המגזר הפרטי מתחולת האמנה. המפקח על הפרטיות באיחוד האירופי פרסם חוות דעת שלפיה האמנה עלולה להתברר כהחמצה של ההזדמנות להניח מסגרת משפטית חזקה ויעילה לפיקוח על בינה מלאכותית.

במובן זה, אירופה מדברת בשני קולות: קול אחד הוא חוק הבינה המלאכותית החדש הכולל מסגרת נוקשה ורחבה לפיקוח על בינה מלאכותית. הקול השני, שנשמע בעיקר על ידי גרמניה וצרפת בהליך הניסוח של האמנה, ביקש את השותפות האמריקאית והסכים לשלם את המחיר. אלא שהמחיר הוא הפיכת האמנה הבינלאומית הראשונה בנושא בינה מלאכותית ממסמך משמעותי ומחייב להצהרה חלולה.

המדינות אינן נדרשות להחיל את האמנה על בינה מלאכותית בשירות הביטחון הלאומי. צורכי הביטחון מובנים, אך נוסח ההחרגה – בלי כללי נחיצות או מידתיות, יוכל לשמש כתירוץ למעקב המונים ולצמצום זכויות

האם באמת אפשר לומר שהאמנה הזאת היא ערובה לכך שבינה מלאכותית תמשיך להתפתח באופן אחראי ואמין? שעיקרון "האדם במרכז" יישמר? התשובה למרבה הצער היא שלילית.

אכן, הבנות בינלאומיות הן קשות להשגה, אך צמצום היקף האמנה יוצר אפקט הפוך של הנמכת רף ההגנה הקיים על זכויות האדם והדמוקרטיה בכל המדינות, עלול לצנן ניסיונות אסדרה בעתיד, והאמנה נוסחה בשפה כה כללית שהחמיצה את הנחת התשתית למסגרת משפטית משותפת בין המדינות.

בנוסף, מדובר כאן באיתות מסוכן: האמנה הבינלאומית הראשונה לגבי בינה מלאכותית נמנעה מלהבטיח אכיפה אפקטיבית על תאגידי הבינה המלאכותית הענקיים והיא מעניקה להם חופש פעולה לפתח ולהשתמש בבינה מלאכותית בהתאם לאינטרסים שלהם.

אין צורך בהוכחות נוספות שהאינטרסים של תאגידים אלה אינם נמצאים תמיד בהלימה עם האינטרסים של אזרחי העולם, ובוודאי לא של חלקו הדמוקרטי.

ובחזרה לישראל: במצבנו הגיאופוליטי העגום, כל שיתוף פעולה בינלאומי הוא מבורך. אבל חשוב שאזרחי ישראל ידעו: מסמך המדיניות של משרד המדע על בינה מלאכותית שהתפרסם בדצמבר 2023 לא קבע שום כללים אכיפים לפיקוח על בינה מלאכותית.

האם באמת אפשר לומר שהאמנה הזאת היא ערובה לכך שבינה מלאכותית תמשיך להתפתח באופן אחראי ואמין? שעיקרון "האדם במרכז" יישמר? התשובה למרבה הצער היא שלילית

אצלנו גם אין חקיקה משמעותית של הגנת פרטיות, סייבר ורשתות חברתיות, ובנוסף לכך שיקולי ביטחון מקבלים לעתים בכורת-יתר. שותפות בניסוח אמנה מהסוג הזה לא תורמת, לפיכך, דבר להגנה עלינו, למעט ציוצים והכרזות נרגשות.

ד"ר תהילה שוורץ אלטשולר היא מומחית למשפט וטכנולוגיה, עמיתה בכירה במכון הישראלי לדמוקרטיה.

ד"ר אורי פריימן הוא פוסט-דוקטורנט במעבדה לחברה דיגיטלית באוניברסיטת מקמסטר, קנדה.

פוסטים המתפרסמים בבלוגים של זמן ישראל מייצגים את כותביהם בלבד. הדעות, העובדות וכל תוכן המוצג בפוסט זה הם באחריות הבלוגר/ית וזמן ישראל אינו נושא באחריות להם. במקרה של תלונה, אנא צרו קשר.
עוד 805 מילים
סגירה