|
||||
|
||||
Coco, a company providing mental health services to teens and adults, has come under fire for conducting an experiment in which people seeking mental health advice online were given answers by an AI without their knowledge. The participants were led to believe that they were receiving advice from human volunteers.
Critics have raised concerns about informed consent, stating that the participants were not fully informed about the nature of the study and were thus unable to give their informed consent. Informed consent is a fundamental principle of ethical research and requires that participants be provided with enough information about a study or experiment so that they can make an informed decision about whether or not to participate. The company has defended the experiment, stating that they do not plan to publish the study. However, this does not absolve them of ethical responsibilities related to informed consent. Even if the study is not going to be published, the results and findings of the study may be used internally by the company and can have an impact on the participants or on other people. The failure to obtain informed consent is a serious ethical violation, and the company should take steps to address this issue and ensure that all future research is conducted in accordance with ethical principles. This incident raises a broader question of the ethical implications of AI in the field of mental health and the need for transparency and informed consent in AI-assisted mental health services. |
|
||||
|
||||
הבעיה האתית ברורה, אבל איך אפשר לעשות ניסוי סמוי1 בלי להסתיר את המידע הזה מהנבדקים? כפי שמקובל בניסויים שכוללים קבוצת ביקורת עם פלאסבו אפשר לחלק את המטופלים לשתי קבוצות - אחת שתשוחח עם ג'פטו והשניה עם בן אדם, בלי להודיע למשתתפים באיזו קבוצה הם, אבל אפילו הידיעה שקיימת אפשרות שהשיחה היא עם מכונה עלולה לפגוע בתוצאות. מכל מקום, בעיני זה יהיה מגניב אם יתברר שאחד היישומים הראשונים של בינה מלאכותית הוא דווקא בתחום שיחסי אנוש הם הבסיס לקיומו. ___________ 1- סמיות כפולה? כן, אולי היה כדאי שגם המטפלים לא יידעו שהם נוטלים חלק בניסוי כדי שלא ישנו, במודע או לא, את צורת הטיפול. |
|
||||
|
||||
״אבל איך אפשר לעשות ניסוי סמוי?״ אי אפשר. זה לא רק לא אתי. לפחות בארה״ב זה גם מנוגד לחוק. ניסוי שאתה משתתף בו בהסכמתך ואתה מסכים לא לדעת אם אתה בקבוצת הביקורת או לא, זה סיפור אחר. פה התקבלה הסכמה של הנבדק להשתתף בניסוי. אתיקה אכן מפריעה קצת ובלעדיה היה אפשר לגלות יותר בקלות דברים שאיתה יותר קשה. אז מה. ידע זה לא הדבר הכי חשוב בעולם. |
|
||||
|
||||
אם הובן מהודעתי הקודמת שאני חושב שהמחקר הזה היה ראוי, לא התבטאתי טוב. הצבעתי על הצד השני של המטבע, כי לטעמי הוא אינו חסר ערך. תאר לעצמך עולם שבו בגלל הרגולציה הזאת נמנע ממליוני אנשים לקבל טיפול זול שעשוי לעזור להם. לדוגמא, אם במקום מתנדבי ער''ן, שעוברים הכשרה שטחית למדי, תהיה מערכת ב.מ. שתוכח כיעילה יותר (ותדע להזעיק בן אדם במקרה הצורך) דומני שכולם יצאו מורווחים. |
|
||||
|
||||
גם תחת ההנחה שצריך לשאוף למערכת ב.מ. שתוכח כיעילה יותר בטיפול נפשי, לא חייבים לקבל את ההנחה שהדרך היעילה להגיע לזה זה לבדוק את המערכת על אנשים שלא הסכימו לקבל טיפול כזה. |
|
||||
|
||||
מה עם חלוקה לשלוש קבוצות? ביקורת גלויה, ביקורת סמויה וטיפול סמויה. חברים בקבוצה הראשונה מיודעים על כך, וחברים בקבוצות האחרות רק יודעים שהם לא בקבוצה הראשונה. אני לא רואה בעיה לממש את זה גם במצב של סמיות כפולה. כשאני חושב על זה, הבעיה שאתה מצביע עליה קיימת בכל ניסוי שבו פלסבו/נוסבו משחקים תפקיד, רק שבסיפור הזה היא בולטת יותר לעין. אולי כל המתודולוגיה של סמיות עם קבוצת ביקורת קצת חסרה? |
|
||||
|
||||
כן. לשים את הכתבה על זה ב-chatgpt ולשאול אותו שאלות זה הדבר הראשון שעשיתי. |
|
||||
|
||||
בתגובה הוא בטח שאל אותך על יחסיך עם אימך. |
|
||||
|
||||
הדבר הראשון שהוא עשה זה לסרב לדבר על הנושא כי אין לו שמץ של מושג מה קורה בעולם מאז 2021 (סוף תהליך ה״לימוד״). כנראה נתפס על המשפט הראשון בכתבה בו היה כתוב ״last friday״. רק אחרי שהסברתי שאני לא שואל אותו מה קרה אלא מספר לו מה קרה ושואל אותו מה דעתו על זה, רק אז הוא ״הסכים״ להתחיל לדבר על זה. |
|
||||
|
||||
אתה לא מקבל "ChatGPT is at capacity right now"? |
|
||||
|
||||
לפני כמה ימים קיבלתי, אבל לא ביומיים האחרונים. ג׳פטו לא עומד בעומס. |
|
||||
|
||||
מה יהיה שווי חברת OpenAI אם בעוד כמה חודשים הם יתחילו לגבות תשלום תמורת השימוש במוצר? לדעתי הם יוכלו לקנות את ארצות הברית. |
|
||||
|
||||
מיקרוסופט כבר השקיעה בהם 3 מיליארד דולר, ומעוניינת להשקיע 10 מיליארד נוספים. מישהו זרק שווי של 47 מיליארד בגיוס הקרוב. |
|
||||
|
||||
לפני יומיים קניתי קצת מניות של מיקרוסופט למרות שההשקעה שלהם ב OpenAi מהווה רק חלק מזערי מההון הכולל שלהם (בעת הקניה ידעתי שהם מושקעים שם במיליארד דולר שהם בערך חצי פרומיל משוויים). היסטורית, אני שמח לבשר, מדיניות ההשקעות הפנומנלית שלי נחלה הצלחות כבירות, כלומר בחמש השנים האחרונות הפסדתי כמחצית מההון ההתחלי. ייעוץ השקעות יינתן לקוראי האייל בתנאים שלא תמצאו בשום מקום אחר: העיקרון הוא שמשלמים אחוז קטן מהרווח, ופטורים לחלוטין (!!) מתשלום אם צוברים הפסדים. אל תתמהמהו, כל הקודם בוכה! ______________ לידיעת הרשות לני"ע: סתאאאם. צחוקים. |
|
||||
|
||||
מליוני שנים של אבולוציה עד שהגענו עד הלום והרעיון הכי ״מוצלח״ שבני אדם הגיעו אליו עד כה הוא ״בואו נבנה כלכלה וציוויליזציה שלמה שמתבססות ומתנהלות על עקרונות דומים לזה של איזה קזינו מעופש. מה כבר יכול להשתבש?!״. אולי באמת הגיע הזמן להעביר את השליטה לידי הבינה המלאכותית. |
|
||||
|
||||
אתה לא הראשון להציע באייל את המודל הכלכלי הזה. |
חזרה לעמוד הראשי | המאמר המלא |
מערכת האייל הקורא אינה אחראית לתוכן תגובות שנכתבו בידי קוראים | |
RSS מאמרים | כתבו למערכת | אודות האתר | טרם התעדכנת | ארכיון | חיפוש | עזרה | תנאי שימוש | © כל הזכויות שמורות |