זירת הבלוגים

יבמ מצהירה שתפסיק לפתח תוכנת זיהוי פנים הפוגעת בשוויון

נקיטת עמדה אתית או בניצול הזדמנויות ציני, ההצהרה אינה מתרחשת בחלל ריק

12/06/2020 13:05
אילוסרטציה לטכנולוגיות זיהוי פנים (צילום: iStock/ metamorworks)

מאז ה-26 במאי, ארצות הברית סוערת בעקבות הרצח של ג'ורג' פלויד, בגל מחאה אדיר נגד אלימות משטרתית ופרופיילינג גזעי נגד שחורים. המחאה מקיפה את כל שכבות האוכלוסיה, ומשלבת גם חברות מסחריות הרואות אחריות בהבעת עמדה נגד גזענות ובהזדהות עם תנועת Black Lives Matter.

בתוך זה, מנכ"ל חברת יבמ העולמית, ארווינד קרישנה, פרסם באתר החברה מכתב ששלח למספר חברי קונגרס ובו הוא מצהיר, בין היתר, כי יבמ תפסיק למכור טכנולוגיות זיהוי פנים.

במסגרת המחאה נגד האלימות המשטרתית והפרופיילינג נגד שחורים, הצהיר מנכ"ל יבמ העולמית, ארווינד קרישנה, כי יבמ תפסיק למכור טכנולוגיות זיהוי פנים

טכנולוגיית זיהוי פנים יכולה לסרוק במהירות גבוהה כמות גדולה מאוד של תמונות או סרטונים, כולל בזמן אמת, ולזהות אנשים מסוכנים, למשל כאלו שלמשטרה יש מידע מקדים לגבי זהותם וכוונתם לבצע פשע. דוח של מכון המחקר האמריקאי PEW בספטמבר 2019 הראה שמרבית הציבור האמריקאי רואה בחיוב את השימוש בטכנולוגיות כאלו על-ידי כוחות ביטחון.

אולם ישנה התנגדות הולכת וגוברת לכך בקרב פעילי זכויות ומומחים העוסקים בנושאי פרטיות. המדרון החלקלק מדאיג רבים, בין היתר על רקע השימוש בטכנולוגיות אלו על ידי המשטר בהונג-קונג במסגרת דיכוי ההפגנות במדינה.

קרישנה קורא לפעול ב-3 תחומים:

  1. רפורמה במשטרה למניעת התנהגות בלתי הולמת
  2. הכשרה וחינוך למיומנויות מבוקשות כמפתח להרחבת הזדמנויות כלכליות
  3. מדיניות טכנולוגית אחראית שתגביר שקיפות מבלי לקדם אפליה או אי צדק גזעי. בהקשר זה הוא כותב:

"יבמ לא מציעה יותר תוכנת זיהוי או ניתוח פנים למטרות כלליות. יבמ מתנגדת בתוקף ולא תעודד שימוש בטכנולוגיה כלשהי, כולל טכנולוגיית זיהוי פנים המוצעת על ידי ספקים אחרים, לצורך פיקוח המוני, פרופילינג גזעי, הפרות זכויות אדם וחירויות בסיסיות, או כל מטרה שאינה עולה בקנה אחד עם ערכינו ועם עקרונות של אמון ושקיפות".

חשוב לציין שטכנולוגיות זיהוי פנים, למרות השימוש הנרחב בהן על-ידי גורמי ביטחון וגורמים מסחריים כאחד, אינן מתקדמות במיוחד וסובלות מבעיות קשות של אמינות, פעמים רבות בהקשרים של גזע ומגדר.

ישנם מקרים מפורסמים של כשלים, כגון תוכנת זיהוי פנים של גוגל שתייגה בטעות נשים שחורות בתור גורילות, או מקרים מסכני חיים כמו תוכנת זיהוי פנים המוטמעת ברכבים אוטונומיים והציגה אחוז גבוה של טעויות בזיהוי פנים של אנשים כהי עור. מחקר של מכון NIST האמריקאי שבחן את ההשפעה של מגדר, גזע וגיל על תוכנות זיהוי פנים, מצא שבקרב כ-200 אלגוריתמים שנבדקו, ישנה סבירות גבוהה יותר לטעויות אצל אנשים שאינם לבנים. הסבירות הגבוהה ביותר לטעות היתה אצל נשים שחורות.

ישנם כשלים: תוכנת זיהוי פנים של גוגל שתייגה בטעות נשים שחורות בגורילות, או מקרים מסכני חיים כתוכנת זיהוי פנים ברכבים אוטונומיים, שהציגה אחוז טעויות גבוה בזיהוי פני אנשים כהי עור

יש לציין כי אמאזון, שתוכנת זיהוי הפנים שלה נמצאת בשימוש המשטרה האמריקאית, סירבה לכלול את האלגוריתם שלה במחקר הזה. אמאזון גם ספגה ביקורת בעבר בעקבות מוצר שלה שהציע שילוב של זיהוי פנים עם טכנולוגיות מעקב נוספות,  ככלי שישמש את המשטרה לזיהוי גורמים "חשודים".

לא כולם מתרשמים מההצהרה של יבמ. חוקרים ופעילים בתחום ציינו בראיון לגרדיאן שהחברה אחראית במידה רבה לפיתוח וקידום תשתיות ששימשו למעקב אחר אנשים במקומות שונים בעולם. כמו כן, גורמים בעולם הטכנולוגי מציינים שמוצרי זיהוי הפנים של יבמ התקשו להתמודד עם מוצרים מתחרים והחברה תכננה להפסיק את השיווק שלהן ממילא.

בין אם מדובר בנקיטת עמדה אתית משמעותית או בניצול ציני של הזדמנות, ההצהרה של יבמ אינה מתרחשת בחלל ריק. במקביל לבעיות שארצות הברית מתמודדת איתן, מתקיים בשנים האחרונות דיון גלובלי העוסק בשאלת האתיקה בפיתוח טכנולוגיות בינה מלאכותית ולמידת מכונה. מדינות רבות, כולל האיחוד האירופי וישראל, עובדות לקבוע קווים מנחים לפיתוח ושימוש בטכנולוגיות מהסוג הזה, אשר יבטיחו שימוש הוגן אחראי בטכנולוגיות כאלה.