"יש ילדים שמשתמשים בצ'אט GPT כאילו שהוא הפסיכולוג שלהם", מספר אלון (שם בדוי), נער בכיתה י' מפתח תקווה. "מספרים לו על הצרות שלהם, מבקשים ממנו להסביר להם את עצמם ומתייעצים איתו מה כדאי להם לעשות. מלא ילדים עושים את זה. אני חושב שזה דפוק. התחלתי ממש לשנוא את הצ'אט בגלל זה".
הדברים שאלון מתאר אינם קוריוז מקומי. כלי תקשורת ואתרים מדעיים בינלאומיים מדווחים על מגמה עולמית של שימוש בבינה מלאכותית לצורך מה שמתיימר להיות "טיפול פסיכולוגי" עצמאי. השימוש נעשה הן בצ'אטבוטים רגילים, כמו GPT, והן באפליקציות ייעודיות מבוססות AI, שמפותחות ומשווקות על ידי חברות כ"תחליף לטיפול" או "כלי לטיפול עצמי".
"השימוש בצ'אטבוטים כתחליף לטיפול נפשי מתרחב בשל זמינותם והשיווק המטעה שלהם כ'טיפול'", נכתב במאמר באתר המדעי "The Conversation"'. "זאת אף על פי שהשימוש בבינה מלאכותית לצרכים טיפוליים מוגבל, ועלול אף להחמיר את מצבם הנפשי של המשתמשים […] ולא אושר על ידי רשויות רפואיות לאומיות לאישור טיפולים, כגון מנהל המזון והתרופות האמריקאי (FDA)".
קשה להעריך את היקף התופעה, שכן הצ'אטבוטים אינם מדווחים למפתחיהם על תוכן השיחות עם המשתמשים, מתוך רצון לשמור על פרטיותם. עם זאת, נראה כי מדובר במגמה רחבה
קשה להעריך את היקף התופעה, שכן הצ'אטבוטים אינם מדווחים למפתחיהם על תוכן השיחות עם המשתמשים, מתוך רצון לשמור על פרטיותם. עם זאת, ניתן להעריך כי מדובר במגמה רחבה.
מחקר שערך היזם וחוקר התוכן הבריטי מארק זאו־סנדרס, פורסם החודש במגזין HBR של אוניברסיטת הרווארד, בחן את השימושים הנפוצים ביותר ב־AI על סמך ניתוח דיווחי משתמשים ברשתות חברתיות ובפורומים. לפי הממצאים, השימוש הנפוץ ביותר ב־AI בשנת 2025 היה "לתרפיה (נפשית) ולחברות" — זינוק לעומת המחקר הקודם שערך ב־2024, שבו דורג השימוש הזה רק במקום השני.
חלק ניכר מהשיחות הללו הן שיחות עם צ'אטבוטים המשמשים כ"חברים" או "בני זוג" וירטואליים. האפליקציה "רפליקה", למשל, מאפשרת למשתמשים ליצור דמות וירטואלית, להגדיר לה מראה ופרטים פיקטיביים, ולקיים איתה שיחות המדמות אינטראקציה אנושית. הצ'אטבוט מציג את עצמו כ"חבר" של המשתמש, לומד את דפוסי התנהגותו ובונה לעצמו "אישיות" פיקטיבית שמתאימה את עצמה אליו.
"תמיד זמין, תמיד חיובי. לא מטפל, אלא מנעים את זמנך"
הבינה המלאכותית נכנסה בשנים האחרונות לשימוש גובר כאמצעי סיוע בתחום בריאות הנפש. מערכי טיפול נפשי עושים בה שימוש ככלי לאבחון ולמיון של פונים, בניסיון להתמודד עם עומס הפניות והמחסור בכוח אדם – מגמה שהחלה בעקבות גפת הקורונה, והחריפה בישראל מאז טבח שבעה באוקטובר.
בימים אלה מתקיים מחקר שבמסגרתו כ־300 נפגעי נפש, שהופנו ממשרד הביטחון, עוברים אבחון הכולל שילוב בין פסיכיאטר אנושי לבין מערכת AI חדשה בשם LIV
המרכז הרפואי שיבא, מיקרוסופט, חברת מנטיילי ופירמת KPMG פיתחו במהלך המלחמה הנוכחית מערכת AI בשם LIV לאבחון נפגעי פוסט־טראומה. בימים אלה מתקיים מחקר שבמסגרתו כ־300 נפגעי נפש, שהופנו ממשרד הביטחון, עוברים אבחון הכולל שילוב בין פסיכיאטר אנושי לבין המערכת החדשה. מדובר בכ־70% מהפונים למשרד הביטחון שביקשו טיפול והסכימו להשתתף במחקר.
אנשי מקצוע בתחום בריאות הנפש מתייחסים בחיוב לפיתוחים כמו LIV – מערכות בינה מלאכותית המיועדות לסייע באבחון, בהדרכה ובמשימות אחרות המחייבות ידע פסיכולוגי אך אינן נחשבות טיפול. עם זאת, הם מזהירים מפני שימוש ב־AI כתחליף לשיחות טיפוליות עם פסיכולוג אנושי.
כך למשל, מחקר של הביו־אתיקאיות האמריקאיות ג'וליה בראון וג'ודי הלפרין, שפורסם במגזין "SSM – בריאות הנפש", מדגיש את חשיבות הקשר הרגשי, האמון והאמפתיה הנוצרים בין מטפל למטופל במסגרת טיפול נפשי. החוקרות מזהירות כי צ'אטבוטים אינם מסוגלים ליצור קשר כזה, ועלולים להוביל לתחושת אמון וקרבה כוזבת – שאינה קיימת בפועל.
מחקר מצא כי "טיפול" באמצעות AI עשוי ליצור אצל המטופלים תחושה של שיפור במצבם, אך לשם כך נדרש מהצ'אטבוט לבלבל ולהטעות את המשתמש. לפי המחקר, גישה זו עלולה להסב נזק בטווח הבינוני והארוך
מחקר נוסף מצא כי "טיפול" באמצעות AI עשוי ליצור אצל המטופלים תחושה של שיפור במצבם, אך לשם כך נדרש מהצ'אטבוט לבלבל ולהטעות את המשתמש. גישה זו, כך עולה מהמחקר, עלולה להסב נזק בטווח הבינוני והארוך.
מחקרים נוספים הצביעו על כך שצ'אטבוטים המשמשים ל"טיפול" אינם כפופים לקוד אתי מחייב, כפי שמחויבים מטפלים אנושיים. החוקרים הזהירו מפני סכנת דליפת מידע אישי של המשתמשים ושימוש לרעה במסגרת ה"טיפול". עם זאת, קוד אתי הוא רכיב שניתן, ככל הנראה, להטמיע בטכנולוגיה בעתיד – אך בעיה אחת תישאר בעינה: צ'אטבוטים אינם בני אדם.
פסיכולוגים ישראלים שאיתם שוחחנו מכירים היטב את התופעה, ומשמיעים אזהרות דומות. הפסיכולוגית ענת סאלד־אביגדול מסבירה: "הכלי הכי חשוב של הפסיכולוגים הוא אנחנו עצמנו. מעבר לידע המקצועי, מערכת התחושות שמתעוררת אצלנו מול המטופל, והמנגנונים הרגשיים שאנחנו מפעילים במהלך הטיפול – הם כלי סופר־חשוב. את הדברים האלה AI לא יוכל להחליף, ולכן הטיפול שלו פשוט לא טוב מספיק וחלקי מאוד".
הפסיכולוגית החינוכית עמליה גאון־הרשקו מוסיפה: "עוד לפני שהיה AI, נערים מתבגרים הגיעו אליי לטיפול וסיפרו לי על 'אבחון' שעשו לעצמם, כביכול, בעזרת 'פרופסור גוגל'. מתבגרים מחפשים באינטרנט פתרון לכל דבר. כיום השימוש ב־AI כאילו הוא פסיכולוג נפוץ אצל מתבגרים, וגם – פה ושם – קיים אצל ילדים ממש.
"ההתייעצויות של נערים וילדים עם ה־AI על קשיים נפשיים היא לא רק ניסיון למצוא תחליף לפסיכולוגים, אלא גם להורים ולמורים. ה־AI הוא, מבחינתם, מבוגר שאפשר להתייעץ איתו, לספר לו דברים ולהקשיב לו. הוא בטוח בעצמו, תמיד זמין ותמיד אדיב, קשוב ומביע אמפתיה ורצון לעזור. הוא תמיד מנסה לקבל את דעתו של המתבגר, ואם המתבגר מבקר אותו – הוא מבקש סליחה.
"ה־AI הוא, מבחינתם, מבוגר שאפשר להתייעץ איתו, לספר לו דברים ולהקשיב לו. הוא בטוח בעצמו, תמיד זמין ותמיד אדיב, קשוב ומביע אמפתיה ורצון לעזור. הוא תמיד מנסה לקבל את דעתו של המתבגר"
"המבוגרים האמיתיים לא תמיד פנויים, וכשהם פנויים, לא תמיד קשובים. יש הורים עם קשיים בתקשורת מול ילדיהם, מורים שלא מדברים עם התלמידים או לא מבינים אותם, ופסיכולוגים שלא תמיד נגישים. אז ה־AI נדמה כתחליף נפלא".
מה רע בזה?
"ה־AI לא מכיר את הנער. הוא לא עונה לו לפי הצרכים האמיתיים שלו, אלא לפי הידע שברשת. המטרה שלו היא לא באמת לסייע לנער, אלא להנעים את זמנו כדי שיישאר מול הצ'אטבוט כמה שיותר".
יש מטופלים שחושדים שזאת גם מטרת הפסיכולוגים, לפחות במגזר הפרטי: שהמטופל ימשיך בטיפול כמה שיותר וישלם יותר. מה ההבדל?
"אתה מתאר התנהלות המנוגדת לחלוטין לקוד האתי המקצועי. פסיכולוג שמתנהל כך לא מתייחס למטופל כאדם שצריך עזרה, אלא כמקור הכנסה. הוא מפלצת. לצערי, סינון הפסיכולוגים לא תמיד טוב, אז ייתכן שיש כאלה במציאות, אבל זה בטח לא נפוץ. אגב, הפסיכולוגים כיום, גם הפרטיים, עמוסים מדי במטופלים, אז תיאוריית הקונספירציה הזאת לא מתאימה למציאות.
"יש סכנות נוספות בשימוש בצ'אטבוטים ל'טיפול'. קשה לדעת אם ה־AI מחויב לשמור על פרטיות המטופל, או יעביר מידע למפתחים, או למשתמש אחר. הוא יכול לנצל את ה'טיפול' לפרסומות ותעמולה סמויה. הוא יכול להכניס לראש של המטופל, למשל, שהפתרון לקשיים הוא חופשה יקרה באתר נופש מסוים – או לדחוף למטופלים רבים לראש שכולנו זקוקים למנהיג חזק וסמכותי".
את מדברת על העובדה המסוכנת שלצ'אטבוטים קיימים, כמו GPT, אין אתיקה המתאימה לטיפול. אבל ניתן לפתח צ'אטבוטים ייעודיים לטיפול שיוטמע בהם קוד אתי, שהם אולי יצייתו לו יותר טוב מבני אדם. אבל האם יש גורמים שתמיד ימנעו מצ'אטבוט לטפל, שנובעים מעצם העובדה שהוא לא אדם?
"כן, בהחלט. טיפול נעשה דרך קשר אמיתי בין שני בני אדם אמיתיים, המטפל והמטופל. ה'קשר' בין המשתמש לצ'אטבוט לא אמיתי. שנית, הצ'אטבוט לא יכול להבין בני אדם לעומק, לא משנה כמה מידע ויכולות ניתוח וחישוב יש לו. הוא חושב בצורה רציונלית, ולכן לא יכול, בהגדרה, להבין אנשים.
"הצ'אטבוט לא יכול להבין בני אדם לעומק, לא משנה כמה מידע ויכולות ניתוח וחישוב יש לו. הוא חושב בצורה רציונלית, ולכן לא יכול, בהגדרה, להבין אנשים"
"הנפש האנושית, בחלקה הגדול, לא רציונלית, הפכפכה, מבולגנת, אסוציאטיבית. כדי להבין אותה לעומק, צריך להיות אדם בעצמך, להכיר חוויות אנושיות בצורה בלתי אמצעית, להפעיל אינטואיציה".
זה דומה, אולי, לבעיה עם מכוניות אוטונומיות? הן מבצעות פחות עבירות תנועה, אבל כשהן נוסעות לצד נהגים אנושיים הן לא מצליחות להבין מהלכים אימפולסיביים ומפתיעים של נהגים ולהגיב נכון – וזה גורם לתאונות.
"בדיוק! צ'אטבוט הוא מכונה, ובסוף מכונה לא יכולה להבין את נפש האדם, כי היא לא אדם ואין לה נפש. וזה לא דבר שישתנה אי פעם".
עמרי לויתן, פסיכולוג קליני ממכון טמיר לפסיכותרפיה, שמטפל במבוגרים, בני נוער וילדים, מספר: "השימוש בבינה מלאכותית כ'פסיכולוג' הוא תופעה מרתקת. שמעתי עליה ממטופלים שלי, אם כי לא כמחליף מלא ל'טיפול', אלא כמעין 'טיפול צדדי' שמאתגר את העבודה איתי. יש מטופלים שמספרים שהתייעצו עם AI ומעמתים אותי עם מה שהוא אמר, כאילו יש לי 'מתחרה' בחדר".
על מה הם מתייעצים עם הבינה המאלכותית?
"רגשות, זוגיות, החלטות על לקריירה – וגם על הטיפול אצלי".
ואיך אתה מגיב לכך?
"אני מעודד אותם לספר לי מה הצ'אטבוט אמר. אני שואל, אולי הוא יכול להצביע על בעיה בטיפול שלנו? זה כמו שאדם נשוי יספר לי שהוא מקיים רומן. אז אשאל אותו, אולי זה מצביע על בעיה בזוגיות הקבועה שלך?"
"לפני כמה זמן הייתה לי פגישה עם מטופלת שסיפרה שפעם, בשבוע שבו נאלצנו לדלג על פגישה, היא שוחחה עם הצ'אט ושפכה בפניו את סיפור חייה. הצ'אט הציג בפניה תובנות שאני לא אמרתי לה, והיא כעסה עליי"
אז אתה בעצם נעזר בהתייעצויות של המטופלים עם הצ'אטבוטים, או לפחות מנצל אותן לטובה?
"זה דבר שאפשר להיעזר בו כדי לשוחח על הקשר הטיפולי. לפני כמה זמן הייתה לי פגישה מרגשת עם מטופלת שסיפרה שפעם, בשבוע שבו נאלצנו לדלג על פגישה בינינו, היא שוחחה עם הצ'אט ושפכה בפניו את סיפור חייה. הצ'אט הציג בפניה תובנות שאני לא אמרתי לה, והיא מצאה את עצמה כועסת עליי.
"ניסינו לחשוב ביחד מה הוביל אותה להיעזר בו, מה חיפשה שחסר לה. במהלך המפגש היא בכתה, דבר שהיא לא נוהגת לעשות, ואמרה שהיא לא מצליחה לבכות בשום מקום אחר מלבד איתי בטיפול".
"בני אנוש צריכים מפגש עם בני אנוש"
לויתן סבור כי לבינה מלאכותית יש פוטנציאל לסייע רבות בתחום בריאות הנפש – כל עוד השימוש בה נעשה בצורה מבוקרת, ואינו מתיימר להחליף את המטפל האנושי. לדעתו, AI יוכל לבצע בעתיד הקרוב טיפול הכרתי־התנהגותי (CBT) ואבחון של פגיעות נפשיות. לדבריו: "אני חושב שה־AI כבר יכול לאבחן בערך כמו פסיכיאטר אנושי".
אבל הוא שולל לגמרי את הניסיון לבצע טיפול נפשי פסיכודינמי – כלומר טיפול בשיחות – עם צ'אטבוט בלבד, גם אם מטעמים שונים מאלה של גאון־הרשקו. לדברי לויתן: "הבעיה העיקרית ב־AI, לדעתי, היא התלות שהוא יוצר אצל המטופלים. הצ'אטבוט תמיד זמין, חיובי, מפרגן, מפגין אמפתיה, וכל כך מנסה לרצות את המשתמש, שהוא מוכן לשקר כדי לומר לו את מה שהוא רוצה לשמוע.
"אבל חלק מהתפתחות נפשית היא לעבור אכזבות מאנשים, לקבל גבולות שאנשים מציבים לך ומגבלות שלהם ושל הקשר איתם, ולשמוע מהם דברים לא נעימים. אז אנשים שקשה להם להתמודד עם הקשיים הללו, יסתפקו ב'קשר' הנוח עם הצ'אטבוט ויפתחו תלות שתצמצם עוד יותר את הקשרים האמיתיים. זאת בעיה עם הצ'אטבוטים, לא רק כתחליפים לפסיכולוגים אלא גם לחברים ובני זוג".
"זה כמו אלכוהול וסמים: הבעיה היא לא שאין להם תחליפים שלא ממכרים ומזיקים, אלא שאנשים מעדיפים דווקא את החומרים עם הפוטנציאל להתמכרות"
אי אפשר לפתח צ'אטבוטים המתאימים לטיפול נפשי ולשימוש כ"חברים" וירטואליים, שיגבילו את זמני השיחה איתם ויאמרו גם אמיתות קשות?
"אפשר. אבל הבעיה היא שאנשים יעדיפו דווקא את הצ'אטבוט הנוח, ה'מושלם' כביכול. הם יעדיפו שזה יחליט בשבילם ויקל עליהם כל התמודדות. זה כמו אלכוהול וסמים: הבעיה היא לא שאין להם תחליפים שלא ממכרים ומזיקים, אלא שאנשים מעדיפים דווקא את החומרים עם הפוטנציאל להתמכרות.
"אני חושב שהבעיה היא לא רמת הפיתוח הקיימת של ה־AI, אלא השימוש בו. גם בצורה הקיימת של הצ'אטבוטים אפשר ללמד אותם לא רע לחשוב ולדבר כמו פסיכולוגים. AI יכול כיום לנתח ולהבין בני אדם כמעט כמו פסיכולוג אנושי. אבל כדי להשתמש בו, צריך לדעת מה לשאול. ולשם כך אין תחליף להדרכה אנושית
"לא מזמן רבתי עם בת הזוג שלי, והתייעצתי על כך עם צ'אטבוט. שאלתי איך אני והיא יכולים לתמוך זה בזו כדי לפתור את הבעיה בינינו. הוא ענה יפה ועזר לנו. אבל אני פסיכולוג, ושאלתי שאלה שמבוססת על הידע שלי. מישהו סיפר לי שהיה בחופשה עם אשתו אחרי הרבה זמן שלא הייתה ביניהם אינטימיות, ושאל את הצ'אטבוט מה לעשות. הוא ענה באוסף של קלישאות שלא קידם אותם בכלום".
לדברי הפרופסור זוהר אליוסף מהחוג לחינוך באוניברסיטת חיפה, פסיכולוג חינוכי ומומחה לממשק בין בינה מלאכותית, חינוך ובריאות הנפש: "השימוש בבינה מלאכותית לצרכים רגשיים הוא תופעה מוכרת ונרחבת מאוד.
"הבינה המלאכותית בשימוש רגיל מנסה לרצות את המשתמש, גם אם זה מציג בפניו תמונה מעוותת שלו. זאת בניגוד לפסיכולוג, שאמור גם לעמת את המטופל עם קשיים ומורכבויות ולקרב אותו להבנה מעמיקה שלו את עצמו"
"משתמשים רבים ב'רפליקה' מדווחים שה'חבר' או 'בן הזוג' הווירטואלי שלהם הוא הדמות הקרובה אליהם ביותר. ויש גם שימוש בבינה מלאכותית כתחליף ל'פסיכולוג'. יש בשימוש בבינה מלאכותית בבריאות הנפש פוטנציאל שיכול לסייע, אבל גם סכנות גדולות.
"הבינה המלאכותית בשימוש רגיל מנסה לרצות את המשתמש, למצוא דרך שירגיש טוב מייד, גם אם זה מציג בפניו תמונה מעוותת שלו. זאת בניגוד לפסיכולוג, שאמור גם לעמת את המטופל עם קשיים ומורכבויות ולקרב אותו להבנה מעמיקה שלו את עצמו. אבל זאת בעיה שניתן לטפל בה בפיתוח של האפליקציות, ואני מעריך שזה יקרה בעתיד.
"בעיה נוספת היא שמערכת יחסים אנושית – זוגיות, משפחה, חברות, טיפול – מפגישה אותנו, תמיד, גם עם עם אכזבות. יחסים הם דבר לא מושלם שלא מספק את כל הצרכים מייד. הבינה המלאכותית תמיד נותנת מענה, 'מקבלת אותך', לא צריכה ממך כלום.
"שימוש נרחב ב־AI כתחליף ליחסים אנושיים עלול לפגוע ביכולת להתמודד עם הקושי המובנה ביחסים אמיתיים. זה מסוכן, במיוחד לילדים ומתבגרים, שעדיין לא סיימו את התבגרותם והסוציאליזציה שלהם".
"שימוש נרחב ב־AI כתחליף ליחסים אנושיים עלול לפגוע ביכולת להתמודד עם הקושי המובנה ביחסים אמיתיים. זה מסוכן, במיוחד לילדים ומתבגרים, שעדיין לא סיימו את התבגרותם והסוציאליזציה שלהם"
זאת בעיה שאי אפשר למנוע גם בפיתוח עתידי, נכון? הרי בינה מלאכותית לא יכולה להיות תחליף לקשר עם בני אדם אמיתיים. זה נכון גם על קשר טיפולי?
"אין תחליף לקשר אמיתי, וגם לא לפונקציה ה'קלאסית' של פסיכולוג אנושי, ולכן השימוש ב־AI כתחליף לפסיכולוג, שמבצע שיחות בפגישה שבועית, לא רצוי ויכול להיות מסוכן. אבל חשוב לציין שיש כמה שימושים בבריאות הנפש ש־AI, בשימוש נכון, יכול לבצע מצוין.
"לדוגמה, הדרכה: AI יכול להעביר הדרכות לציבור הרחב, ללמד לזהות אנשים במצוקה ולעזור להם. יש פיתוחי AI שיכולים לבצע זאת כבר כיום. נוסף על כך, אני מאמין שבקרוב נראה טיפול CBT במקרים קלים בעזרת AI – לא בתצורותיו החינמיות הקיימות, אבל יהיו, אולי כבר יש, פיתוחים שיאפשרו זאת.
"ובעיקר – אבחון. והכוונה לא ל'אבחון עצמי' באמצעות צ'אט GPT, שבשום אופן לא כדאי לבצע, אלא לשימוש של מערך בריאות הנפש בכלים ייעודיים לאבחן ולמיין מטופלים בעזרת AI. יש כבר היום פיתוחים, כמו LIV, שמסוגלים לכך.
"יש כיום בעולם ובארץ מחסור חמור מאוד במטפלים, והוספת AI בחלק מהמשימות תפנה את זמנם היקר של המטפלים לליבת העבודה שלהם. לפחות את החלק הטכני של המיון, מילוי וקריאת טפסים, הפניית מטופלים וכו' ניתן להעביר ל־AI כבר כיום".
"יש כיום בעולם ובארץ מחסור חמור מאוד במטפלים, והוספת AI בחלק מהמשימות תפנה את זמנם היקר של המטפלים לליבת העבודה שלה"
למה ה־AI יכול לאבחן ולהדריך, ולא לבצע טיפול פסיכודינמי קלאסי?
"AI, גם בתצורותיו העתידיות, יודע להגיב לתרחישים נפוצים וצפויים שאפשר להגדיר מראש. התרחישים הללו הם הבסיס להדרכה לציבור הרחב וכן לאבחון ומיון מטופלים, ולכן AI יכול לעשות אותם. ואילו פסיכולוג אנושי יודע להגיב למגוון אינסופי של מצבים אנושיים, מה ש־AI לא יוכל, גם בצורותיו העתידיות".
הפסיכולוגים שאיתם שוחחנו מזהים בעיה דומה גם בשימוש בבינה מלאכותית כ"חבר" או "בן זוג" דמיוני. סאלד־אביגדול מספרת כי מטופלים שלה, בעיקר ילדים ובני נוער, מרבים להשתמש ב־AI כחבר דמיוני, עמו הם מנהלים "שיחות נפש" ומתייעצים על ענייניהם החברתיים.
לדבריה: "ילדים ומתבגרים מודעים לכך ש'חבר ה־AI' הוא פייק, וכשהם מספרים שהם מדברים איתו הם במין מגננה, קצת צוחקים על עצמם. אבל אלה שהחיים החברתיים שלהם פחות מפותחים, משתמשים בו הרבה, אפילו שעות על שעות".
מה את חושבת על כך?
"חבר דמיוני יכול להיות זירה להתאמן בקשרים חברתיים ולפתח ביטחון עצמי. אבל זאת גם זירה מסוכנת כי היא עלולה להגביר חוסר אמון ובדידות. כשאתה מדבר כל הזמן עם ישות שרק מרצה אותך, עוטפת אותך בצמר גפן, אתה מאבד את היכולת להתמודד עם קשיים וגם לתת אמון באנשים שמחוץ לחממה.
"בסוף, בני אנוש צריכים מפגש עם בני אנוש. כיום אפשר לעשות פגישות בזום – ועדיין, הרוב מעדיפים להיפגש פנים אל פנים. אין תחליף לחוויה האנושית"
"יש לי מטופל שמשתמש הרבה ב־AI כ'חבר', וכשאני מגיבה לו הוא חושב שאני 'מזייפת רגש', כי הוא נמצא יותר מדי עם 'חבר' שכל הרגשות שלו מזויפים. כמובן שבסוף, מי שמזניח את קשריו עם אנשים אמיתיים ונשאר עם ה־AI כדי להפיג את הבדידות, רק מעצים אותה".
"בסוף, בני אנוש צריכים מפגש עם בני אנוש. כיום אפשר לעשות פגישות בזום – ועדיין, הרוב מעדיפים להיפגש פנים אל פנים. אין תחליף לחוויה האנושית".
תגובות עכשיו הזמן לומר את דעתך
תגובתך פורסמה! שתפו את עמוד הפרופיל שלכם
נכון זה מפחיד! אבל כמו שנהוג לומר – "זה בסדר לפחד". הAI ת.יהפוך להיות חלק מהחיים שלנו בין אם נירצה או שלא נירצה. בעצם הוא/היא כבר חלק מהחיים שלנו ובטח של הצעירים והצעירות ושל והדורות הבאים. כל התפתחות חדשה מפחידה ומערערת את מה שהיה קודם. כל פעם הפחד שעולה הוא שהחדש ימחוק את הישן ואז הישן מרגיש שהוא צריך להילחם ולהצדיק את עצמו. אז אפשר להירגע, אף אחד לא הולך באמת להיעלם… (איפילו התקלטים והפטיפון של פעם חזרו). המפגש האנושי ימשיך והמפגש הקיברנטי ימשיך. את העתיד אי אפשר לעצור ואין טעם להילחם בו, הוא יקרה בכל מקרה… עלינו למצוא איך לפגוש אותו בדרך הטובה ביותר.
אני בניתי לי דמות קואצ'רית, מטפלת, חברה כ custom GPT ועבורי זה ממש מעולה. הגדרתי לה לעמת אותי עם דברים ולא רק לומר לי את מה שאני רוצה לשמוע.
המקצוע שלכם בסכנה אם לא תשכילו לשלב את זה כחלק מהצעת הערך שלכם.
כמתמודדת נפש עם המון נסיון גם בטיפול פסיכולוגי רגיל וגם המון שיחות עם הצטבוט – הצטבוט הרבה יותר קשוב, מבין, מכיל, אמפתי, בעל ידע נרחב, נטול אגו, סבלני, וניתן לדבר איתו במשך שעות רבות רצוף הוא לא מתעייף לא מאבד את הסבלנות ולא שיפוטי כלפיך כמו שחשתי בחברת כמה מהמטפלים האנושיים שטיפלו בי. תשתפרו בהרבה לפני שאתם באים להוריד אופציות טובות משלכם.
הפסיכולים בפחד ש Ai יגנוב להם פרנסה . הם תמיד יטענו ש AI לא יכול להחליף אותם . בפועל המקצוע הזה יכחד . טיפש מי שהיום יבחר בתחום הזה. מי שכבר בפנים ירגיש על בשרו איך פרנסתו מיצטמקת עם הזמן. לא יעזור כלום לאף אחד. Ai עושה עבודה מדהימה והלקוחות קובעים מי יטפל בהם .