שנבטח בדברי המכונה?

בינה מלאכותית, אילוסטרציה (צילום: iStock / PhonlamaiPhoto)
iStock / PhonlamaiPhoto
בינה מלאכותית, אילוסטרציה

מדען המחשבים המפורסם אלן טיורינג הציע ב-1950 את "משחק החיקוי", מבחן שנועד לבדוק האם למחשב יש בינה מלאכותית. במבחן, בן אדם מתכתב עם נמען לא ידוע, שהוא או המחשב או אדם אחר, ועל האדם להחליט בסוף האם הוא תיקשר עם יצור בעל בינה.

מדען המחשבים אלן טיורינג הציע ב-1950 את "משחק החיקוי", שיבחן אם למחשב יש בינה מלאכותית. במבחן, אדם מתכתב עם נמען לא ידוע, מחשב או אדם אחר, ועל האדם להחליט בסוף אם תיקשר עם בעל בינה

יש שיטענו שבשנות השישים ושבעים צצו המחשבים הראשונים שעוברים את המבחן, אך בראי ההווה עולה שאלה המשך – אם אנחנו לא מצליחים להבדיל בין המחשב והאדם, למה אנחנו סומכים על המחשב יותר?

שאלה זו רלוונטית במיוחד עקב הפצתו של chatGPT, מערכת בינה מלאכותית שיכולה להתכתב עם אדם ולבצע מגוון פעולות. ביניהן יש כתיבת קוד, חיבור שירים, סיכום יצירות מורכבות, ואינספור פעולות נוספות.

עם זאת, לא חסרות גם מגבלות למערכת, שבולטות כשמתעמקים מעט ביכולותיו. לדוגמה, אם הוא נשאל מי ראש ממשלת בריטניה הוא יענה "בוריס ג'ונסון", מה שלא נכון כבר כמעט חצי שנה.

מקרה נוסף נראה בחישובים מתמטיים פשוטים עם מספרים לא רגילים. כך שכששואלים אותו "מה המהירות הממוצעת של רכב שעבר 21 קילומטר ב-37 דקות?" הוא יענה "37 קמ"ש". לא רק שזה שגוי אלא זה דומה לתלמיד שמנסה לענות על שאלה שהוא לא מבין, באמצעות משחק עם המספרים המופיעים בה וכתוצאה מכך מתעלם מפרטים חשובים. תשובות אלו משתנות בהתאם לשינויי נוסח קלים ופרטים קודמים בשיחה, מה שכנראה לא היה קורה לאדם פשוט המכיר חיבור ארוך.

כששואלים את chatGPT "מה המהירות הממוצעת של רכב שעבר 21 קילומטר ב-37 דקות?" הוא יענה "37 קמ"ש". לא רק שזה שגוי, אלא דומה לתלמיד שמנסה לענות על שאלה שאינו מבין

עם זאת, מתבקשת השאלה – האם זה באמת מפריע? על אף הבעיות, האם המערכת לא בכל זאת שימושית להפליא? התשובה היא בוודאי שכן, אבל הכוכביות חשובות.

כפי ש-Google מהווה כלי שעוזר ללמוד ולייעל את חיינו, ייתכן שגם כלים כ-chatGPT יהיו כך, אך זה תלוי באופן בו ישתמשו בהם. כשמחפשים מידע ברשת מגיעים לאתרים שאנשים כתבו, ובהתאם לאופי המידע וסוג האדם נפעיל שיקול דעת לפני שנסתמך על הכתוב. כשמציבים בפנינו מערכת שכותבת עם הביטחון של אדם יודע-כל אנו עלולים להרפות מזהירותנו, מה שנראה משונה כשבוחנים אותה בעיון ומתחשבים בתהליך למידתה.

כדי להבין מה עלולות להיות השלכות המערכת בהתאם לאיך שנתייחס אליה, ניתן להתבונן בראי ההיסטוריה. האנושות לא איבדה את בינתה כשספרים הופצו או כשהאינטרנט נולד, על אף שמטלות רבות התייעלו פלאים ואף נעלמו. כלים אלו עזרו להעלות את איכות החיים, וזאת כאשר מתייחסים אליהם בדיוק כך – רק ככלים.

תעשייה בה ניתן לראות את שני צדדי המטבע האלה הוא תחום פיתוח רכבים אוטונומיים. מצד אחד, החברה מציבה רף גבוה לאיכות הנדרשת אוטונומי, אשר כיום עדיין רחוק מרמת הנהיגה של בן אדם. אף על פי כן, אנו רואים באנשים עם דגמי רכבים סמי-אוטונומיים (כגון טסלה) סימני רשלנות, בהם לא שמים ידיים על ההגה ונותנים למערכת יותר חופש ממה שאף היצרן ממליץ. זה במקרה בו ברור שהמערכת גרועה מהאדם, אך איך נתייחס אליה כשהלקויות נסתרות מעיננו?

על אף שהבינה המלאכותית כבר עכשיו מקדמת את האנושות פלאים, אין לשים בה ביטחון מופרז. חשוב להבין את מגבלותיה ולהיות ערים לכך שבמקרים רבים, היא רק חיקוי איכותי של האדם.

כשמחפשים מידע ברשת, בהתאם לאופי המידע והכותב נפעיל שיקול דעת לפני שנסתמך על הכתוב. כשמציבים בפנינו מערכת שכותבת עם הביטחון של אדם יודע-כל, אנו עלולים להרפות מזהירותנו

תפוצת המערכות האלו תדרוש שינויים חברתיים בכדי שנכילם בצורה שלא תפגע בנו. אם זה דרך חינוך מדעי-טכנולוגי או שינוי התיאור של הבינה במדיה ובאומנות, על תפיסת האדם להתאים להווה בו אנו חיים. בינתיים, בפעם הבאה שאתם משתמשים ב-chatGPT או מתכתבים עם אנשים אחרים, תחשבו – כמה אני סומך עליהם?

יונתן גדעוני הוא חוקר למידת מכונה ודוקטורנט באוניברסיטת אוקספורד, זוכה מלגת רודס לשנת 2023.

פוסטים המתפרסמים בבלוגים של זמן ישראל מייצגים את כותביהם בלבד. הדעות, העובדות וכל תוכן המוצג בפוסט זה הם באחריות הבלוגר/ית וזמן ישראל אינו נושא באחריות להם. במקרה של תלונה, אנא צרו קשר.

תגובות עכשיו הזמן לומר את דעתך

comments icon-01
1
עוד 579 מילים ו-1 תגובות
סגירה