فناوری قبلاً فقط پیامهایی را به ما ارائه میکرد و حال میخواهد با درک احساسات، دنیایی جدید برای ما بنویسد.
در ماه می ۲۰۲۱، توییتر، پلتفرمی که بهدلیل سوء استفاده بدنام شده است، ویژگی Prompts را معرفی کرد که به کاربران پیشنهاد میکند قبل از ارسال توییت، دوباره به انتشار آن فکر کنند. در ماه بعد، فیسبوک «هشدارهای درگیری» یا همان Conflicts Alerts که مبنی بر هوش مصنوعی بود را برای گروههای این پلتفرم اعلام کرد تا مدیران بتوانند در جایی که ممکن است مکالمههای مشاجرهآمیز یا ناسالم انجام میشود، اقداماتی انجام دهند. پاسخهای هوشمند ایمیل و پیامرسانی روزانه میلیاردها جمله را برای ما به پایان میرسانند.
Halo آمازون که در سال ۲۰۲۰ راهاندازی شد، یک گجت تناسب اندام است که لحن صدای شما را نیز کنترل میکند. معیارهای سلامتی دیگر فقط ردیابی ضربان قلب یا شمارش قدمها نیست بلکه نحوه برخورد ما با اطرافیانمان را نیز دربرمیگیرد. ابزارهای درمانی الگوریتمی برای پیشبینی و پیشگری از رفتارهای منفی در حال توسعه هستند. جف هنکاک، استاد ارتباطات در دانشگاه استنفورد، ارتباطات مبتنی بر هوش مصنوعی را زمانی تعریف میکند که «یک عامل هوشمند از طرف یک ارتباطدهنده با تغییر، تقویت یا تولید پیامها برای دستیابی به اهداف ارتباطی عمل میکند». او میگوید که این فناوری در حال حاضر در مقیاس گسترده به کار گرفته شده است.
در زیر همه اینها این باور روبهرشد وجود دارد که روابط ما فقط یک حرکت تا رسیدن به کمال فاصله دارد. از زمان شروع همهگیری کرونا، بیشتر روابط ما به کانالهای رایانهای وابسته است. آیا الگوریتمها میتوانند به ما کمک کنند در میان اقیانوسی از پرشهای آنلاین، پیامهای سمی Slack و تماسهای زوم، رفتارهای بهتری با یکدیگر داشته باشیم؟ آیا یک اپلیکیشن میتواند احساسات ما را بهتر از ما بخواند؟ یا اینکه برونسپاری ارتباطاتمان به هوش مصنوعی چیز ی را که یک رابطه را انسانی میکند، از بین میبرد؟
بیشتر بخوانید: هوش مصنوعی را با چه عنوانی معرفی کنیم؟
شما میتوانیید بگویید که جی کیسون در سیستم دادگاه خانواده بزرگ شده است یا حداقل در اطراف آن. مادرش، کاتلین کیسون، وکیل خانواده بود و زمانی که او نوجوان بود، فرزندش را به دفتر مینیاپولیس واقع در مینهسوت میبرد تا در جمعآوری اسناد به وی کمک کند. این زمانی قبل از «دستگاههای کپی» بود و درحالی که کیسون در میان پشتههای بیپایان کاغذی که در راهروهای یک شرکت حقوقی بال میزند، میچرخید، داستانهایی درباره راههای زیادی که خانوادهها میتوانند از هم پشیده شوند را میشنید.
از این نظر، برای کیسون که یکی از بنیانگذاران OurFamilyWizard است و ابزاری برای برنامهریزی و ارتباط برای زوجهای طلاقگرفته و والدین در سال ۲۰۰۱ ساخته است، چیزی زیاد تغییر نکرده است. این سرویس توجه کسانی که در سیستم حقوقی کار میکردند، از جمله قاضی جیمز سوئنسون که در سال ۲۰۰۳ یک برنامه آزمایشی را با این پلتفرم در دادگاه خانواده در شهر هنپین مینیاپولیس اجرا کرد، جلب کرد. این پروژه ۴۰ خانواده که از منظر کیسون تحت عنوان خانوادههای سختکوش معرفی میشدند را در خود جای داد و به این ترتیب، این خانوادهها از سیستم دادگاه ناپدید شدند.
دو دهه بعد، OurFamilyWizard توسط حدود یک میلیون نفر استفاده شده و تأییدیه دادگاه در سرتاسر ایالات متحده را بهدست آورده بود. در سال ۲۰۱۵ در انگلستان و یک سال بعد در استرالیا نیز سیستم این شرکت راهاندازی شد و درحال حاضر در ۷۵ کشور وجود دارد. محصولات مشابه عبارتند از: Amicable ،Cozi ،CoParenter و TalkingParents. برایان کارپ، دبیر انجمن وکلای آمریکا و بخش حقوق خانواده، میگوید که اکنون بسیاری از وکلا برنامههای فرزندپروری مشترک را بهعنوان یک روش استاندارد توصیفه میکنند؛ به ویژه زمانی که میخواهند تأثیر دلخراش بر نحوه برقراری ارتباط زوجین داشته باشند. این اپلیکیشنها میتوانند عاملی بازدارنده برای آزار و اذیت باشند و استفاده از آنها در ارتباطات را میتوان به حکم دادگاه ارائه داد.
در تلاش برای تشویق مدنیت، هوش مصنوعی به یک ویژگی برجسته تبدیل شده است. OurFamilyWizard دارای یک عملکرد ToneMeter است که از تجزیهوتحلیل احساسات برای نظارت بر پیامهای ارسالشده در برنامه استفاده میکند. تحلیل احساسات زیرمجموعهای از پردازش زبان طبیعی و تحلیل گفتار انسان بهشمار میاید. این الگوریتمها که روی پایگاههای اطلاعاتی زبانهای گسترده آموزش دیدهاند، متن را تجزیه میکنند و براساس کلمات و عباراتی که در آن وجود دارد، آ» را برای احساسات و عواطف امتیاز میدهند. در مورد ToneMeter، اگر یک عبارت دارای بار احساسی باشد و این عبارت در پیام شناسایی شود، مجموعهای از نوارها قرمز میشوند و کلمات مشکل نیز مورد علامتگذاری قرار میگیرند. برای مثال، جمله «تقصیر شما است که ما دیر آمدهایم» میتواند به عنوان جمله تهاجمی علامتگذاری شود. عبارتهای دیگر را نیز میتوان به عنوان تحقیرآمیز یا ناراحتکننده علامتگذاری کرد. این به کاربر بستگی دارد که آیا همچنان بخواهد دکمههای ارسال را بزند یا خیر.
ToneMeter در ابتدا در سرویسهای پیامرسانی استفاده میشد، اما اکنون برای همه نقاط مبادله میان والدین در برنامه کدگذاری میشود. شین هلگت، مدیر ارشد تولید میگوید که بهزودی نهتنها این ابزار میتواند ارتباطات منفی را از بین ببرد، بلکه زبان مثبت را نیز تشویق کند. او درحال جمعآوری بیشنهایی از مجموعهای گسترده از تعاملات است با این دیدگاه که این برنامه میتواند به طور فعالانه والدین را تشویق کند که فراتر از مکالمات معمولی عمل کنند و رفتار مثبتی با یکدیگر داشته باشند. این ابزار میتواند یادآوریهایی برای برقراری ارتباط از برنامهها یا تاریخهایی برای تولدها و تعطیلات را داشته باشد؛ حرکاتای که ممکن است مورد نیاز نباشند اما میتوانند احساس خوبی را منتقل کنند.
CoPartner که در سال ۲۰۱۹ راهاندازی شد، از تحلیل احساسات نیز استفاده میکند. والدین از طریق متن مذاکره میکنند و اگر پیامی بیش از حد خصمانه باشد، یک هشدار ظاهر میشود؛ دقیقاً مانند یک میانجی انسانی که ممکن است مشتری خود را آرام کند. اگر سیستم به توافق منجر نشود، این گزینه وجود دارد که یک انسان وارد این چت شود.
موکول کردن به یک برنامه برای چنین مذاکرات پراحساسی بدون مشکل نیست. کیسون آگاه بود که به ToneMeter اجازه ندهد والیدن را در مورد مثبت یا منفی بودن آنها امتیاز دهد و کارپف میگوید که تأثیر قطعی را بر رفتار کاربران دیده است. او میگوید:
ارتباطات روباتیکتر میشوند. شما اکنون برای جماعتی از مخاطبان و کاربران دیگر مینویسد و خودتان در یک صفحه نیستید، مگر نه؟
چنین برنامههای مشترکی ممکن است بتوانند به هدایت یک رابطه مشکلساز کمک کنند، اما نمیتوانند آن را حل کنند. گاهی اوقات، آنها میتوانند این روابط را بدتر کنند. کارپف میگوید برخی از والیدن برنامه را به سلاح تبدیل میکنند و پیامهای «طعمهای» میفرستند تا رابطهشان را به پایان برسانند و آنها را وادار کنند که پیامهای مشکلزا ارسال کنند.
کیسون گفتگوی خود را با یک قاضی به یاد میآورد که برنامه آزمایشی را راهاندازی کرده بود. قاضی دراینباره گفت:
نکتهای که در مورد ابزار باید بهخاطر بسپارید این است که من میتوانم یک پیچ گوشتی به شما بدهم و شما میتوانید یک سری چیزها را با آنها تعمیر کنید. البته که شما میتوانید آن را توی چشم خود نیز بکوبید.
در سال ۲۰۱۷، آدلا تیمونز یک دانشجوی دکترا در روانشناسی بود که یک دوره کارآموزی بالینی را در UC سانفرانسیسکو و بیمارستان عمومی سانفرانسیسکو انجام داد؛ جایی که او با خانوادههایی کار میکرد که فرزندان خردسالی از زمینههای کمدرآمد داشتند که در معرض تروما قرار گرفته بودند. درحالی که او در آنجا بود، متوجه یک الگوی درحال ظهور شد: بیماران در درمان پیشرفت میکنند تا بتوانند هرجومرج زندگی روزمرهشان را در جلسات از بین ببرند. او معتقد بود که فناوری میتواند شکاف بین اتاق درمانگر و دنیای واقعی را پر کند و پتانسیل فناوری پوشیدنی را دید که میتواند درست در لحظهای که یک مشکل آشکار میشود، مداخله کند.
در این زمینه، این یک مداخله تطبیقی بهموقع شناخته میشود. در تئوری، مانند این است که وقتی یک زنگ هشدار احساسی به صدا درمیآید، یک درمانگر آماده است که در گوش شما زمزمهای کند. تیمونز، مدیر آزمایشگاه مداخلات فناوری برای سیستمهای زیستمحیطی (TIES) در دانشگاه بینالمللی فلوریدا، میگوید:
اما برای انجام این کار بهطور مؤثر، باید رفتارهای مورد علاقه را حس کنید یا از راه دور آنها را شناسایی کنید.
تحقیقات تیمونز که شامل ساخت مدلهای محاسباتی رفتار انسان است بر ایجاد الگوریتمهایی متمرکز است که میتواند بهطور مؤثر رفتار زوجها و خانوادهها را پیشبینی کند. در ابتدا او روی زوجها تمرکز دارد و برای یک مطالعه، محققان ۳۴ زوج جوان را با مانیتور مچ و قفسه سینه سیمکشی کردند و دمای بدن، ضربان قلب و تعریف را ردیابی کردند. آنها همچنین به آنها گوشیهای هوشمند دادند که به مکالمات آنها گوش میدادند. تیمونز و تیماش با ارجاع متقابل این دادها با نظرسنجیهای ساعتی که در آن زوجها وضعیت عاطفی و مشاجرههای خود را توصیف میکردند، مدلهایی را برای تعیین زمانی که یک زوج شان زیادی برای دعوا دارند، توسعه دادند. عوامل محرک عبارتند از ضربان قلب بالا، استفاده مکرر از کلماتی مانند شما و عناصر متنی مانند زمان روز یا میزان نور در یک اتاق. تیمونز توضیح میدهد:
هیچ متغیری وجود ندارد که به عنوان یک شاخص قوی برای یک ردیف اجتنابناپذیر به حساب بیایید و زمانی که اطلاعات زیادی در اختیار دارید، باید از آن استفاده کنید تا یک مدل یا ترکیب را بسازید که میتواند شما را به داشتن سطوح دقیق برای الگوریتمی که واقعآً در دنیای واقعی کار میکند، نزدیک کند.
تیمونز درحال گسترش این مدلها برای بررسی پویایی خانواده با تمرکز بر بهبود روابط بین والدین و فرزندان است. TIES درحال توسعه اپلیکیشنهای موبایلی است که هدف آن حس کردن غیرفعال تعاملات مثبت با استفاده از گوشیهای هوشمند، فیتبیتها و ساعتهای اپل است (ایده این است که باید با فناوری مصرفکننده موجود، قابل اجرا باشد). ابتدا، دادهای جمعآوری میشوند؛ دادههایی از قبیل ضربان قلب، لحن صدا و زبان. سختافزار همچنین فعالیت بدنی و اینکه والدین و فرزندان با هم هستند یا جدا هستند را حس میکند.
در مطالعه زوجها، این الگوریتم در تشخیص تعارض ۸۶ درصد دقت داشت و توانست با حالات عاطفی گزارششده خود همبستگی ایجاد کند. در یک زمینه خانوادگی، امید این است که با شناسایی این حالتها، برنامه بتواند به طور فعال مداخله کند. تیمونز میگوید:
ممکن است درخواستی مانند برو فرزندت را در آغوش بگیر یا به فرزندت بگو که امروز کارش خوب بوده است. ما همچنین روی الگوریتمهایی کار میکنیم که میتوانند حالتهای منفی را تشخیص دهند و سپس مداخلاتی را برای کمک به والدین در تنظیم احساسات خود ارسال کنند. ما میدانیم که وقتی احساسات والدین تنظیم میشود، همه چیز بهتر پیش میرود.
اطلاعات زمینهای به بهبود نرخهای پیشبینی کمک میکند: آیا فرد شب قبل خوب خوابیده است؟ آیا آن روز ورزش کردهاند؟ درخواستها میتوانند به شکل پیشنهادی برای مدیتیشن، تمرین تنفسی یا درگیر شدن با برخی تکنیکهای رفتاردرمانی باشند. اپلیکیشنهای ذهنآگاهی از قبل وجود داشتهاند اما این برنامهها متکی به این هستند که کاربر به یاد داشته باشد که از آن در لحظهای استفاده کند که احتمالاً عصبانی، ناراحت یا از نظر عاطفی تحت فشار است. تیمونز میگوید:
در واقع در آن لحظاتی است که کمتر میتوانید از منابع شناختی خود استفاده کنید. امید این است که بتوانیم در نیمه راه با آگاه کردن او از لحظهای که نیاز به استفاده از این مهارتها دارد، وضعیت را بهبود ببخشیم.
وی در این بین عنوان کرد که تجربه او در کار با خانوادهها و ساختار سنتی درمان که شامل جلسات ۵۰ دقیقهای یک بار در هفته میشد، لزوماً مؤثرترین راه نیست.
من فکر میکنم که این رشته درحال علاقهمندی بیشتر به این است که آیا میتوانیم علم مداخله روانشناختی را گسترش دهیم یا خیر؟
این کار با کمک مالی مؤسسه ملی بهداشت و بنیاد ملی علوم به عنوان بخشی از صندوفقی برای ایجاد سیستمهای فناوری که از نظر تجاری قابل دوام هستند، پشتیبانی میشود و تیمونز امیدوار است که این تحقیق به مراقبتهای سلامت روانی منجر شود که در دسترس، مقیاسپذیر و پایدار باشد. هنگامی که آزمایشگاه او دادههایی را برای اثبات مؤثر و ایمن بود آن برای خانوادهها در اختیار داشت، باید در مورد چگونگی بهکارگیری چنین فناوری تصمیمگیری شود.
بیشتر بخوانید: پیشبینی آینده با هوش مصنوعی
با گسترش مراقتبهای بهداشتی مبتنی بر داده، حفظ حریم خصوصی نیز یک نگرانی بهشمار میآید. اپل آخرین شکت بزرگ فناوری است که در این فضا گسترش یافته است. این بخشی از یک مطالعه سهساله با محققان UCLA است که در سال ۲۰۲۰ راهاندازی شد تا مشخص شود آیا آیفونها و اپلواچها میتوانند موارد افسردگی و اختلالات خلقی را تشخیص دهند و در نهایت پیشبینی و مداخله کنند یا خیر. دادهها از دوربین و حسرگهای صوتی ایفون و همچنین حرکات کاربر و حتی نحوه تایپ آنها در دستگاه جمعآوری میشود. اپل قصد دارد با داشتن الگوریتمهای خود روی گوشی، از اطلاعات کاربر محافظت کند بدون اینکه چیزی به سرورهای شرکتش ارسال شود.
در آزمایشگاه TIES، تیمونز میگوید که هیچ دادههای فروخته یا بهاشتراک گذاشته نمیشود، مگر در مواردی که مربوط به آسیب یا سوء استفاده باشد. او معتقد است که مهم است دانشمندانی که این فناوریها را توسعه میدهند، درباره سوء استفادههای احتماعی فکر کنند:
این مسئولیت مشترک جامعه علمی با قانونگذاران و مردم است که محدودیتهای قابل قبولی را در این فضا ایجاد کنند.
گام بعدی این است که مدلها را در زمان واقعی آزمایش کنید تا ببینید آیا آنها مؤثر هستند و آیا پیامهای گوشیهای هوشمند واقعاً منجر به تغییر رفترهای معنیدار میشوند یا خیر. تیمونز دراینباره میگوید:
ما دلایل و نظریههای خوبی داریم که فکر میکنیم این یک مکانیسم واقعاً قدرتمند برای مداخله است. ما هنوز نمیدانیم که آنها به چه میزان در دنیای واقعی کار میکنند.
این ایده که حسگرها و الگوریتمها میتوانند پیچیدگیهای تعامل انسانی را درک کنند، جدید نیست. برای جان گاتم، روانشناس روابط، عشق همیشه یک بازی اعداد محسوب شده است. از دهه ۱۹۷۰، او در تلاش است تا کیمیاگری روابط را تحلیل کند. گاتمن مطالعاتی روی زوجها انجام داد که معروفترین آنها در آزمایشگاه عشق (Love Lab) بود، مرکز تحقیقاتی در دانشگاه واشنگتن که در دهه ۱۹۸۰ تأسیس شد. نسخهای از لابراتوار عشق هنوز در مؤسسه گاتمن در سیاتل کار میکند که با همسرش جولی گاتمن، روانشناس و همکار وی در سال ۱۹۹۶ تأسیس شد.
در این آزمایشگاه، از مردم خواسته میشود که بین خود صحبت کنند؛ ابتدا در مورد تاریخچه روابطشان و سپس در مورد درگیریهای مختلف؛ آن هم درحالی که دستگاههای مختلف نبض، عرق کردن، لحن صدای آنها و میزان بیقراری آنها روی صندلی دنبال میشد. در یک اتاق پشتی پر از مانیتور، هر حالت چهره توسط اپراتورهای آموزشدیده کدگذاری میشود. هدف آزمایشگاه عشق جمعآوری دادههایی درباره نحوه تعامل زوجها و انتقال احساساتشان بود.
این تحقیق منجر به روش گاتمن، یک روش مشاوره رابطهای شد. حفظ نسبت 5:1 از تعاملات مثبت به منفی مهم است. اینکه ۳۳ درصد عدم پاسخگویی به درخواست شریک برای جلب توجه، مساوی است با فاجعه؛ و اینکه چشم و همچشمی به شدت با غذاب زناشویی مرتبط است. جان گاتمن که از خانهاش در جزیره اورکاس واشنگتن صحبت میکرد، عنوان کرده بود که روابط آنقدرها نیز پیجیده نیستند.
گاتمنها نیز در حال قدم گذاشتن به حوزه هوش مصنوعی هستند. در سال ۲۰۱۸، آنها یک استارتاپ به نام Affective Software را برای ایجاد یک پلتفرم آنلاین برای ارزیابی و راهنمایی روابط تأسیس کردند که این مؤسسه از تعامل IRL آغاز شد. دوستی که سالها پیش جرقه آن زمانی که جولی گاتمن با رافائل لیستیسا، کهنهکار مایکروسافت ملاقات کرد، ایجاد شد. لیسیستا، بنیانگذار و مدیرعامل Affective Software، درحال توسعه یک نسخه مجازی از آزمایشگاه عشق است که در آن زوجها میتوانند تشخیص اشعه ایکس یکسانی از رابطه خود را از طریق دوربین رایانه، آیفون یا تبلتشان انجام دهند. در این آزمایشگاه مجازی، حالت چهره و لحن صدا و همچنین ضربان قلب کنترل میشود.
این نشانگر این است که تشخیص احساسات یا محاسبات عاطفی تا کجا پیش رفته است. اگرچه آزمایشگاه عشق اصلی توسط صفحهنمایشها و دستگاهها پشتیبانگیری میشد، در نهایت به یک فرد آموزش دیده خاص نیاز بود تا مانیتورها را تماشا کند و هر نشانه را به درستی کدگذاری کند. گاتمن هرگز باور نمیکرد که عنصر انسانی را بتوان حذف کرد. او دراینباره میگوید:
افراد بسیار کمی بودند که واقعاً بتوانند احساسات را با حساسی رمزگذاری کنند. آنها باید موزیکال باشند، باید تجربهای همانند تئاتر داشته باشند… هرگز تصور نمیکردم ماشینی بتواند این کار را بهجای انسان انجام دهد.
همه متقاعد نشدهاند که ماشینها میتوانند این کار را انجام دهند. هوش مصنوعی تشخیص احساسات قلمرویی متلاطم است. این نظریه تا حد زیادی براساس این ایده است که انسانها بیان جهانی احساسات دارند؛ نظریهای که در دهههای ۱۹۶۰ و ۷۰ با مشاهدات پل اکمن که یک سیستم کدگذاری بیان صورت ایجاد کرد که به کار گاتمنها اطلاع میدهد و اساس بسیاری از احساسات را تشکیل میدهد، توسعه یافت. برخی از محققان مانند لیزا فلدمن بارت، روانشناس دانشگاه نورث ایسترن، این سوال را مطرح کردهاند که آیا میتواند به طور قابل اعتماد، احساسات را از حالت چهره تشخیص داد یا خیر و اگرچه این روش قبلاً بهطور گسترده استفاده میشد، برخی از نرمافزارهای تشخیص چهره شواهدی از تعصب نژادی نشان دادهاند. یک مطالعه که دو برنامه اصلی را با هم مقایسه کرد، نشان داده که آنها احساسات منفی بیشتری را به چهرههای سیاهپوست نسبت به سفیدپوستان اختصاص میدهند.
گاتمن میگوید آزمایشگاه مجازی عشق روی مجموعه دادههای صروت که شامل انواع پوست است، آموزش دیده است و سیستم او برای تعاملات کدگذاری در گروههای مختلف در ایالات متحده از جمله گروههای آمریکایی آفریقاییتبار و آمریکاییهای آسیایی آزمایش شده است. او میگوید:
ما میدانیم که فرهنگ واقعاً نحوه بیان یا پوشاندن احساسات مردم را تعدیل میکند. ما استرالیا، بریتانیا، کره جنوبی و ترکیه را بررسی کردهایم و بهنظر میرسد که سیستم واقعاً کار میکند. حالا آیا در همه فرهنگها کارساز خواهد بود؟ ما واقعاً این موضوع را نمیدانیم.
گاتمن اضافه میکند که آزمایشگاه عشق واقعاً با استفاده از یک سیستم کدگذاری اجتماعی عمل میکند. با در نظر گرفتن موضوع گفتگو، لحن صدا، زبان بدن و عبارات، کمتر روی تشخیص یک احساس منحصربهفرد متمرکز میشود و در عوض کیفیتهای کلی یک تعامل مورد تحزیهوتحلیل قرار میگیرد. گاتمن میگوید اینها را کنار هم بگذارید و میتوانید با اطمینان بیشتری به مقولهای مانند خشم، غم، انزجار یا تحقیر برسید. هنگامی که یک زوج در آزمایشات شرکت میکنند، از آنها دعوت میشود تا به یک پرسشنامه مفصل پاسخ دهند، سپس دور مکالمه ۱۰ دقیقهای را ضبط کنند. یکی از این بحثهای مکامله، صحبت در رابطه با هفته گذشته است. دیگری در مورد یک درگیری است. پس از آپلود ویدیوها، زوج به وضعیت عاطفی خود در مراحل مختلف گفتگو، از ۱ (بسیار منفی) تا ۱۰ (بسیار مثبت) نمره میدهند. سپس برنامه، این موضوع را همراه با نشانههایی شناساییشده تجزیهوتحلیل میکند و نتایجی از جمله نسبت مثبت و منفی، معیار اعتماد و شیوع «چهار سوارکار آخرالزمان» یعنی انتقاد، دفاع، تحقیر و سنگاندازی را ارائه میدهد.
خدمات درمانی و سلامت روان بهطور فزایندهای از طریق تماسهای ویدیویی ارائه میشوند؛ از زمان ویروس کرونا، این تغییر به شدت افزایش یافته است. به گفته تحلیلگران مککنزی، سرمایهگذاری مخاطرهآمیز در مراقبتهای مجازی و سلامت دیجیتال از زمان کووید ۱۹ سه برابر شده است و چترباتهای درمانی هوش مصنوعی مانند Weobot، در جریان اصلی هستند. اپلیکیشنهای مشاوره رابطه مانند Lasting در حال حاضر مبتنی بر روش گاتمن هستند و اعلانهایی را ارسال میکنند تا به کاربران یادآوری کنند که مثلاً به شریک زندگی خود بگویند که وی را دوست دارند. میتوان تصور کرد که این باعث تنبلی ما میشود اما گاتمنها آن را به عنوان یک فرآیند آموزشی میبینند؛ ما را با ابزارهایی مسلح میکنند که در نهایت به طبیعت دوم تبدیل میشوند.
این تیم در حال حاضر در مورد یک نسخه سادهشده فکر میکند که میتواند مستقل از یک درمانگر مورد استفاده قرار بگیرد. برای گاتمنها که از این واقعیت الهام گرفتهاند که بسیاری از زوجها به هر حال روی گوشیهای هوشمند خود گیر کردهاند، فناوری راهی را برای دموکراتیک کردن مشاوره باز میکند. گاتمن میگوید:
مردم با فناوری به عنوان یک زبان بسیار راحتتر، ارتباط برقرار میکنند؛ فناوری که به عنوان ابزاری برای بهبود زندگی شناخته میشود.
این فناوری در حال حاضر در همه جا وجود دارد. ممکن است بدون اینکه متوجه شوید این موضوع بر روابط شما تأثیر بگذارد. پاسخ هوشمند Gmail را در نظر بگیرید؛ این پیشنهادات برای پاسخ دادن به یک ایمیل و Smart Compose، پیشنهاداتی برای پایان جملات به شما ارائه میدهد. Smart Reply به عنوان یک ویژگی در سال ۲۰۱۵ به نسخه گوشیهای هوشمند این سرویس اضافه شد و Smart Composte نیز در سال ۲۰۱۸ در دسترس کاربران قرار گرفت. هر دو توسط شبکههای عصبی تغذیه میشوند.
جس هوهنشتاین، محقق دکترا در دانشگاه کرنل، اولین بار با Smart Reply هنگامی که Google Allo در حال توسعه بود، مواجه شد؛ برنامهای منقرضشده که اولین بار در سال ۲۰۱۶ از آن رونمایی شد. این برنامه دارای یک دستیار مجازی بود که پیشنهادات پاسخها را ایجاد میکرد و او آن را وحشتناک میدانست:
نمیخواستم الگوریتیم بر الگوهای گفتاری من تأثیر ببگذارد، اما فکر میکردم این باید تأثیر داشته باشد.
در سال ۲۰۱۹، او مطالعاتی انجام داد که نشان داد هوش مصنوعی در واقع نحوه تعامل و ارتباط ما با یکدیگر را تغییر میدهد. در یک مطالعه با استفاده از Google Allo، از ۱۱۳ دانشجو خواسته شد تا کاری را با یک شریک انجام دهند که در آن یکی، هر دو یا هیچ یک از آنها قادر به استفاده از Smart Reply نبودهاند. پس از آن، از شرکتکنندگان پرسیده شد که موفقیت یا عدم موفقیت کار را تا چه اندازه به شخ دیگر (یا هوش مصنوعی) در گفتگو نسبت میدهند. مطالعه دوم با تمرکز بر اثرات زبانی بود؛ اینکه چگونه مردم به پاسخهای هوشمند جوابهای مثبت یا منفی میدادند.
هوهنشتاین دریافت که زبانی که افراد با پاسخهای هوشمند استفاده میکنند به سمت مثبت منحرف میشود و احتمال بیشتری وجود داشت که افراد با یک پیشنهاد مثبت روبهرو شوند تا یک پیشنهاد منفی؛ شرکتکنندگان اغلب در موقعیتی قرار میگرفتند که میخواستند با هم مخالفت کنند، اما فقط به آنها ابزار موافقت میشد. اثر این است که مکالمه سریعتر و روانتر پیش برود؛ هوهنشتاین متوجه شد که این موضوع باعث میشود افراد در مکالمه نیز احساس بهترین نسبت به یکدیگر داشته باشند.
هوهنشتاین فکر میکند که این میتواند در روابط حرفهای نتیجهای معکوس داشته باشد: این فناوری (ترکیب با قالبتهای پیشنهادی خودمان) میتواند ما را از به چالش کشیدن کسی یا اصلاً مخالفت، منصرف کند. برای کارآمدتر کردن ارتباطاتمان، هوش مصنوعی همچنین میتواند احساسات واقعی ما را از آن بیرون بکشد و تبادلات را به دوست دارم کاهش دهد و این بهنظر خوب است. اما از طرفی، این موضوع میتواند باعث کاشه انگیزه باشد.
در مطالعه تکمیل کار، هوهنشتاین دریافت که انسانها اعتبار نتایج مثبت را میگیرند. وقتی مشکلی پیش میآمد، هوش مصنوعی سرزنش میشد. با انجام این کار، الگوریتم از روابط انسانی محافظت کرد و یک بافر برای شکستهای خودمان فراهم کرد. این یک سوال عمیقتر از شفافیت را ایجاد میکند: آیاد باید آشکار شود که یک هوش مصنوعی به ایجاد پاسخها کمک کرده است؟ هنگامی که یک شریک از Smart Reply استفاده میکرد، در ابتدا باعث میشد گیرنده احساس مثبتتری نسبت به شخص دیگری داشته باشد اما وقتی به آنها گفته شد که یک هوش مصنوعی درگیر است، احساس ناراحتی کردهاند.
این زیربنای پارادوکسی است که از طریق استفاده از چنین فناوری انجام میشود: ادراک و واقعیت همسو نیستند. هوهنشتاین میگوید:
مردم تحت تأثیر قرار میگیرند اما ادراک بینفردی را از افرادی که با آنها در ارتباط هستید، بهبود میبخشد؛ چیزی که خلاف شهود است.
هنکاک در مقالهاش نشان میدهد که چگونه این ابزارها ممکن است تأثیرات اجتماعی گستردهای داشته باشند و یک برنامه تحقیقاتی را برای رسیدگی به یک انقلا تکنولوژیکی که زیربینی ما رخ داده است، ترسیم میکند. ارتباطات با واسطه هوش مصنوعی میتواند نحوه صحبت ما را تغییر دهد، تعصب را کاهش دهد یا آن را تشدید کند. ممکن است ما را متعجب کند که واقعاً با چه کسی صحبت میکنیم. این موضوع حتی میتواند درک ما از خود را تغییر دهد. اگر هوش مصنوعی پیامهای یک فرستنده را بهگونهای تغییر دهد که مثبتتر، خندهدارتر یا برونگراتر باشند، آیا برداشت فرستنده از خود به سمت مثبتتر، خندهدار یا برونگراتر تغییر خواهد کرد؟ اگر هوش مصنوعی بیش از حد روابط ما را در اختیار بگیرد، پس واقعاً چه چیزی برای ما باقی میماند؟