צ'אט ג'י.פי. תרפיה

בשנת 2017, ד"ר אליסון דארסי, פסיכולוגית מסטנפורד ייסדה את Woebot, אפליקצייה שיושבת על הסמארטפון ומשתמשת בכלים של טיפול קוגניטיבי התנהגותי (CBT) כדי לשנות דפוסי חשיבה.

האפליקציה מנצלת סוג של אינטיליגנציה מלאכותית שעובדת על ידי NLP, כדי לנסות להבין מה המשתמש כותב, ומשתמשת במשפטים מוכנים מראש כדי להציע להם אפשרויות אחרות לפרשנות של סיטואציות בחיים. אחת הבעיות עם טיפול קוגניטיבי היא שהוא יכול לעזור מאד למטופל בזמן שהוא נמצא בטיפול עם מטפל מקצועי, אבל אחרי סיום הטיפול הוא יכול לחזור לדפוסי חשיבה שטבועים בו. לכן, אם אפשר להשתמש בכלי שמתרגל אותך זה יכול לעזור לשמר את ההצלחה הטיפולית.

החברה טוענת שצוות הפסיכולוגים שמועסק ב Woebot וכולל רק כ 100 עובדים הצליח לתת מענה מסויים למעל מליון וחצי מטופלים, רובם באיזורים שיש בהם מחסור במטפלים. היום יש כבר עוד אפליקציות כאלו, כמו Happify ו-Replika, וההשקעות בתחום רק מתגברות. הסיבה היא שבכל העולם יש מחסור תמידי בפסיכיאטרים, בפסיכולוגים ובאנשי טיפול מוסמכים. למעשה, גם בישראל לרוב התורים במרפאות ציבוריות יכול להיות בין חצי שנה לשנה ואפילו אצל מטפלים פרטיים יש קושי לקבל מטופלים חדשים.

אי שם בשנות השישים, ג'וזף וייזנבאום, חוקר ב MIT פיתח תוכנה בשם Eliza. התוכנה היתה אמורה לחקות טיפול בשיטה שבה המטופל מוביל את הטיפול ואת השיחה ואילו המטפל משקף למטופל את הדברים שהוא אמר. וייזנבאום חשב שהוא יוצר בדיחה, וצוחק על שיטת טיפול שפיתח קארל רוג'רס, פסיכולוג ממייסדי הגישה ההומניסטית. חלק מהמשתמשים כל כך התלהבו מהתוכנה, עד שוייזנבאום עצמו נבהל, במיוחד אחרי שהמזכירה שלו ביקשה ממנו לצאת מהחדר 'כדי שהיא תוכל לבלות קצת זמן עם אלייזה'. במקביל, רופאים התלהבו כי 'עכשיו יהיה אפשר לטפל במאות אנשים בו זמנית'. בהמשך וייזנבאום הפך להיות קול ביקורתי כלפי אינטיליגנציה מלאכותית אבל זה כמובן היה מאוחר מדי.

סימולאקרה של טיפול

מזה שנים יש לרוב האתרים, מגוגל ופייסבוק ועד טיקטוק מערכות שסורקות דפוסי מילים ומשפטים שהמשתמשים מעלים לאתר, ומצליחות לזהות סימנים מחשידים לאבדנות. במקרים רבים, המערכות הללו מתריעות ישירות למוקדים שיכולים לשלוח שוטרים או אנשי מקצוע אל אותו משתמש ולמנוע פגיעה עצמית.

מערכות כמו Woebot מבוססות על עץ החלטות. אם כתבת X, תקבל תשובה Y אבל בגלל שהתשובות מוכנות מראש הן לפעמים נראות מלאכותיות מדי. מצד שני, אם Eliza הצליחה בשנות השישים 'לעבוד' על אנשים, מה כלים מתקדמים כמו ChatGPT יוכלו כבר היום לעשות?

ChatGPT יכולה להתאים את עצמה ואפשר להורות לה לענות כמו שרופא היה עונה באותה מידה שתבקשו שתענה בתור רואה חשבון. אם תנחו את ChatGPT לענות בתור 'זיגמונד פרויד', התשובות שתקבלו ייראו שונות מאשר אם תבקשו ממנה לענות בתור 'ראובן דגן' מהסדרה 'בטיפול'. בנוסף יש לה סבלנות אינסופית, אתם גם יכולים לבקש שתענה בצורה יותר נחמדה או יותר אסרטיבית. ואתם יכולים פשוט לבקש מה שאתם רוצים: רוצים כלים להתמודד עם חרדה, היא תזרוק לכם עשר תשובות אפשריות. פשוט וקל.

Koko, היא אפליקציה שמציעה למשתמשים שלה כל מני פיצ'רים של תמיכה רגשית – ממדריכים אונליין ועד צ'אט עם משתמשים אחרים (ויש מאות אלפי משתמשים, בעיקר בני נוער). בתחילת 2023 רוב מוריס, המייסד של השירות, החליט לעשות ניסוי על כ 4000 משתמשים. אנשים שפנו לשירות כדי לשוחח עם משתמשים אחרים, קיבלו במקום זאת תשובות שנכתבו על ידי ChatGPT (בלי לספר להם). בלי קשר לעבירה האתית החמורה של ביצוע ניסוי בבני אדם בלי ידיעתם, החברה החליטה להפסיק את הניסוי די מהר.

למה? כי למרות שבהתחלה המשתמשים הגיבו יותר מהר להתייחסויות של ChatGPT  מאשר למה שכתבו להם משתמשים אחרים, אחרי זמן קצר הם קלטו שמי שעונה להם זו תוכנה ולא בני אדם. מסתבר שבני אדם לא באמת רוצים לדבר עם מכונה שעושה סימולציה של אמפתיה. זה פשוט לא אותנטי. המכונה לא משקיעה זמן כדי לחשוב על מה שאמרת. היא לא תחשוב עליך אחרי שהשיחה תסתיים. למעשה, היא לא תחשוב עליך גם בזמן השיחה, אלא רק תזרוק את המילים הבאות שתיכנתו אותה לחשוב שצריך לכתוב.

זו לא האינטיליגנציה, טמבל

בניגוד למטפלים אנושיים, מטפל AI יכול לפעול 24 שעות ביממה ולהיות שם בשבילך גם בלי שתצטרך לנסוע לקליניקה שלו. הוא יכול לענות לשאלות ולהציע פתרונות מתי שנוח לך. הוא יכול לעקוב אחרי מה שאתה עושה ולזהות דפוסים בהתנהגות או בכתיבה שלך כדי להציע לך תמיכה יותר מדוייקת ואישית. הוא יכול גם (אם תאפשר לו) להתחבר לטלפון שלך, לשעון או לכל מכשיר שעוקב אחריך כדי לקבל עוד יותר מידע אישי עליך.

כלים כאלו יכולים להיות מאד יעילים בתוך עולם הטיפול. לדוגמא, בטיפול CBT יש צורך בזיהוי דפוסים ומחשבות, לסכם אותם ולהכין אותם לפגישה הבאה. AI יכול לעזור לנו לעשות את זה בקלות ולפנות את המטופל לעבודה עצמה. עבור מטפלים ה AI יכול לסכם פגישות ולשלוח למטופל תקציר של הדברים שהוא דיבר עליהם כדי שיזכור לפעם הבאה. AI יכול לעזור להכין את הרשומה הרפואית של המטופל, ולפנות את המטפל לעבודה עצמה, ואפילו אפשר לבקש מה AI להכין סיכום טיפול, כך שהמטפל יצטרך רק לאשר אותו ובכך לפנות למטפלים זמן לטיפול עצמו. בעוד כמה חודשים או שנים, ה AI תוכל גם לעשות סימולציה טובה של אמפתיה.
יותר מזה, במקומות שאין בהם קשר, יכול להיות שקשר עם AI יכול להיות חלופה טובה מספיק להרבה מאד אנשים.

אבל הרבה פעמים המודלים שעליהם מתבססים הכלים האלו לקבלת החלטות מתבססים על הטיות וטעיות. לדוגמא, אלגוריתמים שהתבססו על מאגרי מידע של אוכלוסיה יהודית, יתקשו לזהות בצורה נכונה דפוסים באוכלוסיה ערבית. בנוסף, ברגע שאנחנו מתחילים לשתף את הסודות הכמוסים ביותר שלנו עם מערכות שמנוהלות על ידי גורמים מסחריים, צצה סוגיה של פרטיות ושמירה על המידע שלנו. מי נותן לנו שאם אותן מערכות ידעו הכל על הדברים שמניעים אותנו, לא נמצא את עצמנו עוברים מניפולציות רגשיות כדי להניע אותנו להתנהגות צרכנית מסויימת או כדי לחזק דעה פוליטית כזו או אחרת. קיימבריג' אנליטיקה כבר הראתה לנו את ההתחלה של השיטות הללו.

לזרוק מילים ולקוות לטוב

אנחנו גם יודעים שהמערכות הללו לא מבינות את מה שהן כותבות וניתן לגרום להן לענות לנו תשובות שלפעמים נראות מגוכחות (ראש ממשלת ישראל התשיעי, מר שמואל חירזי), מסוכנות (כמו להמציא על מישהו שהוא גנב מכוניות), או לטעון שכדאי לכם להפרד מבן הזוג שלכם. לכן כדאי לנו להזהר לפני שאנחנו מפקידים את הבריאות הנפשית של הציבור בידי מכונה חכמה שמחקה אינטיליגנציה. הצ'אט לא באמת מבין שכואב לך. לא באמת אכפת לו אם קשה או למה מפריע לך מה אמא שלך חושבת על החבר החדש שלך. היא פשוט יוצרת מילים (אבל איזה יופי של מילים!)

אפשר ללמד את ה AI פרוטוקולים טיפוליים כמו CBT, ACT,  DBT או IPT. והוא יגיב למה שאתם עושים ויתן לכם הנחיות. במקרים רבים ההנחיות האלו יהיו רלוונטיות, בחלקן הגדול הן יהיו מבוססות על מחקרים ומדע. אבל זה שאתה יודע את הפרוטוקול לא הופך אף אחד למטפל, ובטח לא למטפל טוב. המונח שחסר פה הוא ברית טיפולית.

רוב המחקרים על פסיכותרפיה מראים שלהצלחת הטיפול פחות משנה שיטת הטיפול שבה בוחרים אלא משנה הקשר שבין המטפל לבין המטופל. אני יכול לגרום לצ'אט.ג'יפיטי לעשות מה שאני רוצה, לכתוב את מה שמעניין אותי, אבל זה לא מחזק את הברית הטיפולית. זו לא באמת מערכת יחסים טיפולית. שני הצדדים במערכת הזו צריכים להיות מסוגלים לבטא צרכים, לשמור על גבולות, לחשוב ולרצות. אם צד אחד כל הזמן משתנה בהתאם לצרכי הצד השני זו לא מערכת יחסים, ובטח לא טיפולית.

מטפל לא אמור לומר לך את מה שאתה רוצה לשמוע, אלא את מה שאתה צריך לשמוע. וכדי ליצור ברית טיפולית, צריך שני בני אדם לפחות. גם אם AI מסוגל לעשות סימולציה של סימפטיה, זה עדיין לא בן אדם.

סוף דבר

AI זו המהפכה הטכנולוגית הבאה והיא כבר משנה את עולם הטיפול.
הנפש שלנו כבר מושפעת על ידי מה שקורה ברשות החברתיות או על ידי המכשיר הנייד שרוטט לנו בכיס. לפני שאנחנו מאמצים אינטיליגנציה מלאכותית כדי לומר לנו איך אנחנו צריכים להרגיש, כדאי להתקדם בזהירות רבה יותר. לבחון את ההשלכות האתיות, המשמעויות והסיכונים שאנו נחשפים להן, כדי לוודא שהן באמת מסייעות לנו לשפר את הבריאות הנפשית. ככל ש AI יתפתח ויהפוך לחלק מהחיים שלנו, כדאי שננהל שיחה כנה ואמיתית עם עצמנו עד כמה אנחנו רוצים שהוא גם יטפל בנו.

בנתיים, אני אמשיך להשתמש בצ'אט.ג'י.פי.טי כדי לקבל רעיונות לאיך להתמודד עם מצבים מורכבים, לקבל טיפים על כלים שאני לא מכיר או לא משתמש בהם, ואפילו התחלות של מחשבות על כתבות חדשות בנושאי בריאות הנפש. אבל בסופו של דבר, זה לא באמת טיפול.

מצד שני, אולי אני טועה. אני רק בנאדם.

ד"ר ירדן לוינסקי הוא פסיכיאטר מומחה, מנהל את מרכז רזולוציה לישומים פסיכולוגים מתקדמים. לפרטים נוספים או קביעת פגישה אפשר לשלוח דואר אל info@resolution.co.il או להתקשר עכשיו 03-6919961

לקבלת עדכונים אפשר להרשם לרשימת התפוצה או לעקוב אחריי בטוויטר.

קבלו עדכונים במייל

מחשבות של אחרים

כ.ד.ז: מגיע הרגע שאין ברירה אי אפשר לבד תודה על החיזוק

מזל ר.: נושא מעניין. אני לא יודעת מה הייתי עושה אם הייתי במצב כזה. אבל אני מכירה הרבה מתמודדי נפש שההתמודדות שלהם...

אסתי: האם ניתן ליטול אטנט לבעיות קשב וריכוז כשנוטלים קלונקס, האם יש להפסיק את הקלונקס לפני תודה

סני גורדון בר: מבקשת לדעת עבור בת משפחה בחו"ל האם אפשר לקבל קשר לפסיכיאטר ישראלי או דובר עברית בברלין שיכול לתת טיפול...

אור: המטפל מביא את עצמו לטיפול . את החוויות שלו , את הרגישות, החכמת חיים, הנסיון ועוד, לבינה אין את זה . פשוט אין . ...

טולידו רות: ברצוני להפסיק לקחת מירו 30 ופובוקסיל 50. האם הפסקה הדרגתית כלומר לרדת אחרי שש,בועיים לחצי כדור ולאחר מכן לרבע...

אור: לאור מה שאתה כותב, כמטופלת לשעבר אצל פסיכולוגית מדהימה, וכאחת שמשתמשת בAI ליישומים שונים , אני לא חושבת...

נעמה: אנחנו לא "לפעמים" מכירים את הגוף שלנו טוב יותר מכל אחד אחר - אנחנו תמיד מכירים את הגוף שלנו הכי טוב. וחולים לא...

תגובות

3 תגובות לרשימה ”צ'אט ג'י.פי. תרפיה“, בסדר כרונולוגי. ניתן להוסיף תגובות בהמשך העמוד.

  1. מאת שימי:

    אבל לכאורה הוא יכול גם להבין איך עובדת הדינמיקה של הברית הטיפולית ולעבוד לפיה, לא?

  2. מאת אור:

    לאור מה שאתה כותב,
    כמטופלת לשעבר אצל פסיכולוגית מדהימה,
    וכאחת שמשתמשת בAI ליישומים שונים ,
    אני לא חושבת שצ'אטבוט יוכל להחליף מטפל אמיתי,
    לא בעתיד הקרוב לפחות

  3. מאת אור:

    המטפל מביא את עצמו לטיפול .
    את החוויות שלו , את הרגישות, החכמת חיים, הנסיון ועוד,
    לבינה אין את זה .
    פשוט אין .
    לא יעזור כלום

הוספת תגובה






דוקטור, למה לא ענית? כדי להבין איך אני עונה לשאלות קראו את מדיניות התשובות שלי.

על מנת להגן על אתר זה מפני ספאם, שפה בוטה, התקפות אישיות או מסעות צלב, הפעלתי את אפשרות מודרציית התגובות באתר. כדי להבין איך אני עונה לשאלות קראו את מדיניות התשובות שלי.
אפרסם את תגובתך מייד לאחר שאוודא שאין שם שום דבר שמסוכן לבריאות.