دانلود اپلیکیشن اندروید

چه اتفاقی می‌افتد اگر هوش مصنوعی، احساسات ما را درک کند؟

چه اتفاقی می‌افتد اگر هوش مصنوعی، احساسات ما را درک کند؟

فناوری قبلاً فقط پیام‌هایی را به ما ارائه می‌کرد و حال می‌خواهد با درک احساسات، دنیایی جدید برای ما بنویسد.

در ماه می ۲۰۲۱، توییتر، پلتفرمی که به‌دلیل سوء استفاده بدنام شده است، ویژگی Prompts را معرفی کرد که به کاربران پیشنهاد می‌کند قبل از ارسال توییت، دوباره به انتشار آن فکر کنند. در ماه بعد، فیس‌بوک «هشدارهای درگیری» یا همان Conflicts Alerts که مبنی بر هوش مصنوعی بود را برای گروه‌های این پلتفرم اعلام کرد تا مدیران بتوانند در جایی که ممکن است مکالمه‌های مشاجره‌آمیز یا ناسالم انجام می‌شود، اقداماتی انجام دهند. پاسخ‌های هوشمند ایمیل و پیام‌رسانی روزانه میلیاردها جمله را برای ما به پایان می‌رسانند.

Halo آمازون که در سال ۲۰۲۰ راه‌اندازی شد، یک گجت تناسب اندام است که لحن صدای شما را نیز کنترل می‌کند. معیارهای سلامتی دیگر فقط ردیابی ضربان قلب یا شمارش قدم‌ها نیست بلکه نحوه برخورد ما با اطرافیان‌مان را نیز دربرمی‌گیرد. ابزارهای درمانی الگوریتمی برای پیش‌بینی و پیشگری از رفتارهای منفی در حال توسعه هستند. جف هنکاک، استاد ارتباطات در دانشگاه استنفورد، ارتباطات مبتنی بر هوش مصنوعی را زمانی تعریف می‌کند که «یک عامل هوشمند از طرف یک ارتباط‌دهنده با تغییر، تقویت یا تولید پیام‌ها برای دستیابی به اهداف ارتباطی عمل می‌کند». او می‌گوید که این فناوری در حال حاضر در مقیاس گسترده به کار گرفته شده است.

در زیر همه این‌ها این باور روبه‌رشد وجود دارد که روابط ما فقط یک حرکت تا رسیدن به کمال فاصله دارد. از زمان شروع همه‌گیری کرونا، بیش‌تر روابط ما به کانال‌های رایانه‌ای وابسته است. آیا الگوریتم‌ها می‌توانند به ما کمک کنند در میان اقیانوسی از پرش‌های آنلاین، پیام‌های سمی Slack و تماس‌های زوم، رفتارهای بهتری با یک‌دیگر داشته باشیم؟ آیا یک اپلیکیشن می‌تواند احساسات ما را بهتر از ما بخواند؟ یا این‌که برون‌سپاری ارتباطات‌مان به هوش مصنوعی چیز ی را که یک رابطه را انسانی می‌کند، از بین می‌برد؟

بیش‌تر بخوانید: هوش مصنوعی را با چه عنوانی معرفی کنیم؟

کدنویسی به زبان مشترک

شما می‌توانیید بگویید که جی کیسون در سیستم دادگاه خانواده بزرگ شده است یا حداقل در اطراف آن. مادرش، کاتلین کیسون، وکیل خانواده بود و زمانی که او نوجوان بود، فرزندش را به دفتر مینیاپولیس واقع در مینه‌سوت می‌برد تا در جمع‌آوری اسناد به وی کمک کند. این زمانی قبل از «دستگاه‌های کپی» بود و درحالی که کیسون در میان پشته‌های بی‌پایان کاغذی که در راهروهای یک شرکت حقوقی بال می‌زند، می‌چرخید، داستان‌هایی درباره راه‌های زیادی که خانواده‌ها می‌توانند از هم پشیده شوند را می‌شنید.

از این نظر، برای کیسون که یکی از بنیان‌گذاران OurFamilyWizard است و ابزاری برای برنامه‌ریزی و ارتباط برای زوج‌های طلاق‌گرفته و والدین در سال ۲۰۰۱ ساخته است، چیزی زیاد تغییر نکرده است. این سرویس توجه کسانی که در سیستم حقوقی کار می‌کردند، از جمله قاضی جیمز سوئنسون که در سال ۲۰۰۳ یک برنامه آزمایشی را با این پلتفرم در دادگاه خانواده در شهر هنپین مینیاپولیس اجرا کرد، جلب کرد. این پروژه ۴۰ خانواده که از منظر کیسون تحت عنوان خانواده‌های سخت‌کوش معرفی می‌شدند را در خود جای داد و به این ترتیب، این خانواده‌ها از سیستم دادگاه ناپدید شدند.

دو دهه بعد، OurFamilyWizard توسط حدود یک میلیون نفر استفاده شده و تأییدیه دادگاه در سرتاسر ایالات متحده را به‌دست آورده بود. در سال ۲۰۱۵ در انگلستان و یک سال بعد در استرالیا نیز سیستم این شرکت راه‌اندازی شد و درحال حاضر در ۷۵ کشور وجود دارد. محصولات مشابه عبارتند از: Amicable ،Cozi ،CoParenter و TalkingParents. برایان کارپ، دبیر انجمن وکلای آمریکا و بخش حقوق خانواده، می‌گوید که اکنون بسیاری از وکلا برنامه‌های فرزندپروری مشترک را به‌عنوان یک روش استاندارد توصیفه می‌کنند؛ به ویژه زمانی که می‌خواهند تأثیر دلخراش بر نحوه برقراری ارتباط زوجین داشته باشند. این اپلیکیشن‌ها می‌توانند عاملی بازدارنده برای آزار و اذیت باشند و استفاده از آن‌ها در ارتباطات را می‌توان به حکم دادگاه ارائه داد.

در تلاش برای تشویق مدنیت، هوش مصنوعی به یک ویژگی برجسته تبدیل شده است. OurFamilyWizard دارای یک عملکرد ToneMeter است که از تجزیه‌وتحلیل احساسات برای نظارت بر پیام‌های ارسال‌شده در برنامه استفاده می‌کند. تحلیل احساسات زیرمجموعه‌ای از پردازش زبان طبیعی و تحلیل گفتار انسان به‌شمار می‌اید. این الگوریتم‌ها که روی پایگاه‌های اطلاعاتی زبان‌های گسترده آموزش دیده‌اند، متن را تجزیه می‌کنند و براساس کلمات و عباراتی که در آن وجود دارد، آ» را برای احساسات و عواطف امتیاز می‌دهند. در مورد ToneMeter، اگر یک عبارت دارای بار احساسی باشد و این عبارت در پیام شناسایی شود، مجموعه‌ای از نوارها قرمز می‌شوند و کلمات مشکل نیز مورد علامت‌گذاری قرار می‌گیرند. برای مثال، جمله «تقصیر شما است که ما دیر آمده‌ایم» می‌تواند به عنوان جمله تهاجمی علامت‌گذاری شود. عبارت‌های دیگر را نیز می‌توان به عنوان تحقیرآمیز یا ناراحت‌کننده علامت‌گذاری کرد. این به کاربر بستگی دارد که آیا همچنان بخواهد دکمه‌های ارسال را بزند یا خیر.

ToneMeter در ابتدا در سرویس‌های پیام‌رسانی استفاده می‌شد، اما اکنون برای همه نقاط مبادله میان والدین در برنامه کدگذاری می‌شود. شین هلگت، مدیر ارشد تولید می‌گوید که به‌زودی نه‌تنها این ابزار می‌تواند ارتباطات منفی را از بین ببرد، بلکه زبان مثبت را نیز تشویق کند. او درحال جمع‌آوری بیشن‌هایی از مجموعه‌ای گسترده از تعاملات است با این دیدگاه که این برنامه می‌تواند به طور فعالانه والدین را تشویق کند که فراتر از مکالمات معمولی عمل کنند و رفتار مثبتی با یک‌دیگر داشته باشند. این ابزار می‌تواند یادآوری‌هایی برای برقراری ارتباط از برنامه‌ها یا تاریخ‌هایی برای تولدها و تعطیلات را داشته باشد؛ حرکاتای که ممکن است مورد نیاز نباشند اما می‌توانند احساس خوبی را منتقل کنند.

CoPartner که در سال ۲۰۱۹ راه‌اندازی شد، از تحلیل احساسات نیز استفاده می‌کند. والدین از طریق  متن مذاکره می‌کنند و اگر پیامی بیش از حد خصمانه باشد، یک هشدار ظاهر می‌شود؛ دقیقاً مانند یک میانجی انسانی که ممکن است مشتری خود را آرام کند. اگر سیستم به توافق منجر نشود، این گزینه وجود دارد که یک انسان وارد این چت شود.

موکول کردن به یک برنامه برای چنین مذاکرات پراحساسی بدون مشکل نیست. کیسون آگاه بود که به ToneMeter اجازه ندهد والیدن را در مورد مثبت یا منفی بودن آن‌ها امتیاز دهد و کارپف می‌گوید که تأثیر قطعی‌ را بر رفتار کاربران دیده است. او می‌گوید:

ارتباطات روباتیک‌تر می‌شوند. شما اکنون برای جماعتی از مخاطبان و کاربران دیگر می‌نویسد و خودتان در یک صفحه نیستید، مگر نه؟

چنین برنامه‌های مشترکی ممکن است بتوانند به هدایت یک رابطه مشکل‌ساز کمک کنند، اما نمی‌توانند آن را حل کنند. گاهی اوقات، آن‌ها می‌توانند این روابط را بدتر کنند. کارپف می‌گوید برخی از والیدن برنامه را به سلاح تبدیل می‌کنند و پیام‌های «طعمه‌ای» می‌فرستند تا رابطه‌شان را به پایان برسانند و آن‌ها را وادار کنند که پیام‌های مشکل‌زا ارسال کنند.

 

یک خانواده تند و تیز، همیشه تند و تیز خواهد بود

 

کیسون گفتگوی خود را با یک قاضی به یاد می‌آورد که برنامه آزمایشی را راه‌اندازی کرده بود. قاضی دراین‌باره گفت:

نکته‌ای که در مورد ابزار باید به‌خاطر بسپارید این است که من می‌توانم یک پیچ گوشتی به شما بدهم و شما می‌توانید یک سری چیزها را با آن‌ها تعمیر کنید. البته که شما می‌توانید آن را توی چشم خود نیز بکوبید.

کامپیوتر می‌گوید بغل کن

در سال ۲۰۱۷، آدلا تیمونز یک دانشجوی دکترا در روانشناسی بود که یک دوره کارآموزی بالینی را در UC سانفرانسیسکو و بیمارستان عمومی سانفرانسیسکو انجام داد؛ جایی که او با خانواده‌هایی کار می‌کرد که فرزندان خردسالی از زمینه‌های کم‌درآمد داشتند که در معرض تروما قرار گرفته بودند. درحالی که او در آن‌جا بود، متوجه یک الگوی درحال ظهور شد: بیماران در درمان پیشرفت می‌کنند تا بتوانند هرج‌ومرج زندگی روزمره‌شان را در جلسات از بین ببرند. او معتقد بود که فناوری می‌تواند شکاف بین اتاق درمانگر و دنیای واقعی را پر کند و پتانسیل فناوری پوشیدنی را دید که می‌تواند درست در لحظه‌ای که یک مشکل آشکار می‌شود، مداخله کند.

در این زمینه، این یک مداخله تطبیقی به‌موقع شناخته می‌شود. در تئوری، مانند این است که وقتی یک زنگ هشدار احساسی به صدا درمی‌آید، یک درمانگر آماده است که در گوش شما زمزمه‌ای کند. تیمونز، مدیر آزمایشگاه مداخلات فناوری برای سیستم‌های زیست‌محیطی (TIES) در دانشگاه بین‌المللی فلوریدا، می‌گوید:

اما برای انجام این کار به‌طور مؤثر، باید رفتارهای مورد علاقه را حس کنید یا از راه دور آن‌ها را شناسایی کنید.

تحقیقات تیمونز که شامل ساخت مدل‌های محاسباتی رفتار انسان است بر ایجاد الگوریتم‌هایی متمرکز است که می‌تواند به‌طور مؤثر رفتار زوج‌ها و خانواده‌ها را پیش‌بینی کند. در ابتدا او روی زوج‌ها تمرکز دارد و برای یک مطالعه، محققان ۳۴ زوج جوان را با مانیتور مچ و قفسه سینه سیم‌کشی کردند و دمای بدن، ضربان قلب و تعریف را ردیابی کردند. آن‌ها همچنین به آن‌ها گوشی‌های هوشمند دادند که به مکالمات آن‌ها گوش می‌دادند. تیمونز و تیم‌اش با ارجاع متقابل این داد‌ها با نظرسنجی‌های ساعتی که در آن زوج‌ها وضعیت عاطفی و مشاجره‌های خود را توصیف می‌کردند، مدل‌هایی را برای تعیین زمانی که یک زوج شان زیادی برای دعوا دارند، توسعه دادند. عوامل محرک عبارتند از ضربان قلب بالا، استفاده مکرر از کلماتی مانند شما و عناصر متنی مانند زمان روز یا میزان نور در یک اتاق. تیمونز توضیح می‌دهد:

هیچ متغیری وجود ندارد که به عنوان یک شاخص قوی برای یک ردیف اجتناب‌ناپذیر به حساب بیایید و زمانی که اطلاعات زیادی در اختیار دارید، باید از آن استفاده کنید تا یک مدل یا ترکیب را بسازید که می‌تواند شما را به داشتن سطوح دقیق برای الگوریتمی که واقعآً در دنیای واقعی کار می‌کند، نزدیک کند.

تیمونز درحال گسترش این مدل‌ها برای بررسی پویایی خانواده با تمرکز بر بهبود روابط بین والدین و فرزندان است. TIES درحال توسعه اپلیکیشن‌های موبایلی است که هدف آن حس کردن غیرفعال تعاملات مثبت با استفاده از گوشی‌های هوشمند، فیت‌بیت‌ها و ساعت‌های اپل است (ایده این است که باید با فناوری مصرفکننده موجود، قابل اجرا باشد). ابتدا، داد‌های جمع‌آوری می‌شوند؛ داد‌ه‌هایی از قبیل ضربان قلب، لحن صدا و زبان. سخت‌افزار همچنین فعالیت بدنی و این‌که والدین و فرزندان با هم هستند یا جدا هستند را حس می‌کند.

در مطالعه زوج‌ها، این الگوریتم در تشخیص تعارض ۸۶ درصد دقت داشت و توانست با حالات عاطفی گزارش‌شده خود همبستگی ایجاد کند. در یک زمینه خانوادگی، امید این است که با شناسایی این حالت‌ها، برنامه بتواند به طور فعال مداخله کند. تیمونز می‌گوید:

ممکن است درخواستی مانند برو فرزندت را در  آغوش بگیر یا به فرزندت بگو که امروز کارش خوب بوده است. ما همچنین روی الگوریتم‌هایی کار می‌کنیم که می‌توانند حالت‌های منفی را تشخیص دهند و سپس مداخلاتی را برای کمک به والدین در تنظیم احساسات خود ارسال کنند. ما می‌دانیم که وقتی احساسات والدین تنظیم می‌شود، همه چیز بهتر پیش می‌رود.

اطلاعات زمینه‌ای به بهبود نرخ‌های پیش‌بینی کمک می‌کند: آیا فرد شب قبل خوب خوابیده است؟ آیا آن روز ورزش کرده‌اند؟ درخواست‌ها می‌توانند به شکل پیشنهادی برای مدیتیشن، تمرین تنفسی یا درگیر شدن با برخی تکنیک‌های رفتاردرمانی باشند. اپلیکیشن‌های ذهن‌آگاهی از قبل وجود داشته‌اند اما این برنامه‌ها متکی به این هستند که کاربر به یاد داشته باشد که از آن در لحظه‌ای استفاده کند که احتمالاً عصبانی، ناراحت یا از نظر عاطفی تحت فشار است. تیمونز می‌گوید:

در واقع در آن لحظاتی است که کم‌تر می‌توانید از منابع شناختی خود استفاده کنید. امید این است که بتوانیم در نیمه راه با آگاه کردن او از لحظه‌ای که نیاز به استفاده از این مهارت‌ها دارد، وضعیت را بهبود ببخشیم.

وی در این بین عنوان کرد که تجربه او در کار با خانواده‌ها و ساختار سنتی درمان که شامل جلسات ۵۰ دقیقه‌ای یک بار در هفته می‌شد، لزوماً مؤثرترین راه نیست.

من فکر می‌کنم که این رشته درحال علاقه‌مندی بیش‌تر به این است که آیا می‌توانیم علم مداخله روان‌شناختی را گسترش دهیم یا خیر؟

این کار با کمک مالی مؤسسه ملی بهداشت و بنیاد ملی علوم به عنوان بخشی از صندوفقی برای ایجاد سیستم‌های فناوری که از نظر تجاری قابل دوام هستند، پشتیبانی می‌شود و تیمونز امیدوار است که این تحقیق به مراقبت‌های سلامت روانی منجر شود که در دسترس، مقیاس‌پذیر و پایدار باشد. هنگامی که آزمایشگاه او داده‌هایی را برای اثبات مؤثر و ایمن بود آن برای خانواده‌ها در اختیار داشت، باید در مورد چگونگی به‌کارگیری چنین فناوری تصمیم‌گیری شود.

بیش‌تر بخوانید: پیش‌بینی آینده با هوش مصنوعی

با گسترش مراقتب‌های بهداشتی مبتنی بر داده، حفظ حریم خصوصی نیز یک نگرانی به‌شمار می‌آید. اپل آخرین شکت بزرگ فناوری است که در این فضا گسترش یافته است. این بخشی از یک مطالعه سه‌ساله با محققان UCLA است که در سال ۲۰۲۰ راه‌اندازی شد تا مشخص شود آیا آیفون‌ها و اپل‌واچ‌ها می‌توانند موارد افسردگی و اختلالات خلقی را تشخیص دهند و در نهایت پیش‌بینی و مداخله کنند یا خیر. داده‌ها از دوربین و حسرگهای صوتی ایفون و همچنین حرکات کاربر و حتی نحوه تایپ آن‌ها در دستگاه جمع‌آوری می‌شود. اپل قصد دارد با داشتن الگوریتم‌های خود روی گوشی،‌ از اطلاعات کاربر محافظت کند بدون این‌که چیزی به سرورهای شرکتش ارسال شود.

در آزمایشگاه TIES، تیمونز می‌گوید که هیچ داده‌های فروخته یا به‌اشتراک گذاشته نمی‌شود، مگر در مواردی که مربوط به آسیب یا سوء استفاده باشد. او معتقد است که مهم است دانشمندانی که این فناوری‌ها را توسعه می‌دهند، درباره سوء استفاده‌های احتماعی فکر کنند:

این مسئولیت مشترک جامعه علمی با قانون‌گذاران و مردم است که محدودیت‌های قابل قبولی را در این فضا ایجاد کنند.

گام بعدی این است که مدل‌ها را در زمان واقعی آزمایش کنید تا ببینید آیا آن‌ها مؤثر هستند و آیا پیام‌های گوشی‌های هوشمند واقعاً منجر به تغییر رفترهای معنی‌دار می‌شوند یا خیر. تیمونز دراین‌باره می‌گوید:

ما دلایل و نظریه‌های خوبی داریم که فکر می‌کنیم این یک مکانیسم واقعاً قدرتمند برای مداخله است. ما هنوز نمی‌دانیم که آن‌ها به چه میزان در دنیای واقعی کار می‌کنند.

اشعه ایکسِ روابط

این ایده که حسگرها و الگوریتم‌ها می‌توانند پیچیدگی‌های تعامل انسانی را درک کنند، جدید نیست. برای جان گاتم، روان‌شناس روابط، عشق همیشه یک بازی اعداد محسوب شده است. از دهه ۱۹۷۰، او در تلاش است تا کیمیاگری روابط را تحلیل کند. گاتمن مطالعاتی روی زوج‌ها انجام داد که معروف‌ترین آن‌ها در آزمایشگاه عشق (Love Lab) بود، مرکز تحقیقاتی در دانشگاه واشنگتن که در دهه ۱۹۸۰ تأسیس شد. نسخه‌ای از لابراتوار عشق هنوز در مؤسسه گاتمن در سیاتل کار می‌کند که با همسرش جولی گاتمن، روان‌شناس و همکار وی در سال ۱۹۹۶ تأسیس شد.

در این آزمایشگاه، از مردم خواسته می‌شود که بین خود صحبت کنند؛ ابتدا در مورد تاریخچه روابط‌شان و سپس در مورد درگیری‌های مختلف؛ آن هم درحالی که دستگاه‌های مختلف نبض، عرق کردن، لحن صدای آن‌ها و میزان بی‌قراری آن‌ها روی صندلی دنبال می‌شد. در یک اتاق پشتی پر از مانیتور، هر حالت چهره توسط اپراتورهای آموزش‌دیده کدگذاری می‌شود. هدف آزمایشگاه عشق جمع‌آوری داده‌هایی درباره نحوه تعامل زوج‌ها و انتقال احساسات‌شان بود.

این تحقیق منجر به روش گاتمن، یک روش مشاوره رابطه‌ای شد. حفظ نسبت 5:1 از تعاملات مثبت به منفی مهم است. این‌که ۳۳ درصد عدم پاسخ‌گویی به درخواست شریک برای جلب توجه، مساوی است با فاجعه؛ و این‌که چشم‌ و هم‌چشمی به شدت با غذاب زناشویی مرتبط است. جان گاتمن که از خانه‌اش در جزیره اورکاس واشنگتن صحبت می‌کرد، عنوان کرده بود که روابط آن‌قدرها نیز پیجیده نیستند.

گاتمن‌ها نیز در حال قدم گذاشتن به حوزه هوش مصنوعی هستند. در سال ۲۰۱۸، آن‌ها یک استارتاپ به نام Affective Software را برای ایجاد یک پلتفرم آنلاین برای ارزیابی و راهنمایی روابط تأسیس کردند که این مؤسسه از تعامل IRL آغاز شد. دوستی که سال‌ها پیش جرقه آن زمانی که جولی گاتمن با رافائل لیستیسا، کهنه‌کار مایکروسافت ملاقات کرد، ایجاد شد. لیسیستا، بنیان‌گذار و مدیرعامل Affective Software، درحال توسعه یک نسخه مجازی از آزمایشگاه عشق است که در آن زوج‌ها می‌توانند تشخیص اشعه ایکس یکسانی از رابطه خود را از طریق دوربین رایانه، آیفون یا تبلت‌شان انجام دهند. در این آزمایشگاه مجازی، حالت چهره و لحن صدا و همچنین ضربان قلب کنترل می‌شود.

این نشانگر این است که تشخیص احساسات یا محاسبات عاطفی تا کجا پیش رفته است. اگرچه آزمایشگاه عشق اصلی توسط صفحه‌نمایش‌ها و دستگاه‌ها پشتیبان‌گیری می‌شد، در نهایت به یک فرد آموزش دیده خاص نیاز بود تا مانیتورها را تماشا کند و هر نشانه را به درستی کدگذاری کند. گاتمن هرگز باور نمی‌کرد که عنصر انسانی را بتوان حذف کرد. او دراین‌باره می‌گوید:

افراد بسیار کمی بودند که واقعاً بتوانند احساسات را با حساسی رمزگذاری کنند. آن‌ها باید موزیکال باشند، باید تجربه‌ای همانند تئاتر داشته باشند… هرگز تصور نمی‌کردم ماشینی بتواند این کار را به‌جای انسان انجام دهد.

همه متقاعد نشده‌‌اند که ماشین‌ها می‌توانند این کار را انجام دهند. هوش مصنوعی تشخیص احساسات قلمرویی متلاطم است. این نظریه تا حد زیادی براساس این ایده است که انسان‌ها بیان جهانی احساسات دارند؛ نظریه‌ای که در دهه‌های ۱۹۶۰ و ۷۰ با مشاهدات پل اکمن که یک سیستم کدگذاری بیان صورت ایجاد کرد که به کار گاتمن‌ها اطلاع می‌دهد و اساس بسیاری از احساسات را تشکیل می‌دهد، توسعه یافت. برخی از محققان مانند لیزا فلدمن بارت، روان‌شناس دانشگاه نورث ایسترن، این سوال را مطرح کرده‌اند که آیا می‌تواند به طور قابل اعتماد، احساسات را از حالت چهره تشخیص داد یا خیر و اگرچه این روش قبلاً به‌طور گسترده استفاده می‌شد، برخی از نرم‌افزارهای تشخیص چهره شواهدی از تعصب نژادی نشان داده‌اند. یک مطالعه که دو برنامه اصلی را با هم مقایسه کرد، نشان داده که آن‌ها احساسات منفی بیش‌تری را به چهره‌های سیاه‌پوست نسبت به سفیدپوستان اختصاص می‌دهند.

گاتمن می‌گوید آزمایشگاه مجازی عشق روی مجموعه داده‌های صروت که شامل انواع پوست است، آموزش دیده است و سیستم او برای تعاملات کدگذاری در گروه‌های مختلف در ایالات متحده از جمله گروه‌های آمریکایی آفریقایی‌تبار و آمریکایی‌های آسیایی آزمایش شده است. او می‌گوید:

ما می‌دانیم که فرهنگ واقعاً نحوه بیان یا پوشاندن احساسات مردم را تعدیل می‌کند. ما استرالیا، بریتانیا، کره جنوبی و ترکیه را بررسی کرده‌ایم و به‌نظر می‌رسد که سیستم واقعاً کار می‌کند. حالا آیا در همه فرهنگ‌ها کارساز خواهد بود؟ ما واقعاً این موضوع را نمی‌دانیم.

گاتمن اضافه می‌کند که آزمایشگاه عشق واقعاً با استفاده از یک سیستم کدگذاری اجتماعی عمل می‌کند. با در نظر گرفتن موضوع گفتگو، لحن صدا، زبان بدن و عبارات، کم‌تر روی تشخیص یک احساس منحصربه‌فرد متمرکز می‌شود و در عوض کیفیت‌های کلی یک تعامل مورد تحزیه‌وتحلیل قرار می‌گیرد. گاتمن می‌گوید این‌ها را کنار هم بگذارید و می‌توانید با اطمینان بیش‌تری به مقوله‌ای مانند خشم، غم، انزجار یا تحقیر برسید. هنگامی که یک زوج در آزمایشات شرکت می‌کنند، از آن‌ها دعوت می‌شود تا به یک پرسش‌نامه مفصل پاسخ دهند، سپس دور مکالمه ۱۰ دقیقه‌ای را ضبط کنند. یکی از این بحث‌های مکامله، صحبت در رابطه با هفته گذشته است. دیگری در مورد یک درگیری است. پس از آپلود ویدیوها،‌ زوج به وضعیت عاطفی خود در مراحل مختلف گفتگو، از ۱ (بسیار منفی) تا ۱۰ (بسیار مثبت) نمره می‌دهند. سپس برنامه، این موضوع را همراه با نشانه‌هایی شناسایی‌شده تجزیه‌وتحلیل می‌کند و نتایجی از جمله نسبت مثبت و منفی، معیار اعتماد و شیوع «چهار سوارکار آخرالزمان» یعنی انتقاد، دفاع، تحقیر و سنگ‌اندازی را ارائه می‌دهد.

خدمات درمانی و سلامت روان به‌طور فزاینده‌ای از طریق تماس‌های ویدیویی ارائه می‌شوند؛ از زمان ویروس کرونا، این تغییر به شدت افزایش یافته است. به گفته تحلیلگران مک‌کنزی، سرمایه‌گذاری مخاطره‌آمیز در مراقبت‌های مجازی و سلامت دیجیتال از زمان کووید ۱۹ سه برابر شده است و چت‌ربات‌های درمانی هوش مصنوعی مانند Weobot، در جریان اصلی هستند. اپلیکیشن‌های مشاوره رابطه مانند Lasting در حال حاضر مبتنی بر روش گاتمن هستند و اعلان‌هایی را ارسال می‌کنند تا به کاربران یادآوری کنند که مثلاً به شریک زندگی خود بگویند که وی را دوست دارند. می‌توان تصور کرد که این باعث تنبلی ما می‌شود اما گاتمن‌ها آن‌ را به عنوان یک فرآیند آموزشی می‌بینند؛ ما را با ابزارهایی مسلح می‌کنند که در نهایت به طبیعت دوم تبدیل می‌شوند.

این تیم در حال حاضر در مورد یک نسخه ساده‌شده فکر می‌کند که می‌تواند مستقل از یک درمانگر مورد استفاده قرار بگیرد. برای گاتمن‌ها که از این واقعیت الهام گرفته‌اند که بسیاری از زوج‌ها به هر حال روی گوشی‌های هوشمند خود گیر کرده‌اند، فناوری راهی را برای دموکراتیک کردن مشاوره باز می‌کند. گاتمن می‌گوید:

مردم با فناوری به عنوان یک زبان بسیار راحت‌تر، ارتباط برقرار می‌کنند؛ فناوری که به عنوان ابزاری برای بهبود زندگی شناخته می‌شود.

ایمیلی برای شما

این فناوری در حال حاضر در همه جا وجود دارد. ممکن است بدون این‌که متوجه شوید این موضوع بر روابط شما تأثیر بگذارد. پاسخ هوشمند Gmail را در نظر بگیرید؛ این پیشنهادات برای پاسخ دادن به یک ایمیل و Smart Compose، پیشنهاداتی برای پایان جملات به شما ارائه می‌دهد. Smart Reply به عنوان یک ویژگی در سال ۲۰۱۵ به نسخه گوشی‌های هوشمند این سرویس اضافه شد و Smart Composte نیز در سال ۲۰۱۸ در دسترس کاربران قرار گرفت. هر دو توسط شبکه‌های عصبی تغذیه می‌شوند.

جس هوهنشتاین، محقق دکترا در دانشگاه کرنل، اولین بار با Smart Reply هنگامی که Google Allo در حال توسعه بود، مواجه شد؛ برنامه‌ای منقرض‌شده که اولین بار در سال ۲۰۱۶ از آن رونمایی شد. این برنامه دارای یک دستیار مجازی بود که پیشنهادات پاسخ‌ها را ایجاد می‌کرد و او آن را وحشتناک می‌دانست:

نمی‌خواستم الگوریتیم بر الگوهای گفتاری من تأثیر ببگذارد، اما فکر می‌کردم این باید تأثیر داشته باشد.

در سال ۲۰۱۹، او مطالعاتی انجام داد که نشان داد هوش مصنوعی در واقع نحوه تعامل و ارتباط ما با یک‌دیگر را تغییر می‌دهد. در یک مطالعه با استفاده از Google Allo، از ۱۱۳ دانشجو خواسته شد تا کاری را با یک شریک انجام دهند که در آن یکی، هر دو یا هیچ یک از آن‌ها قادر به استفاده از Smart Reply نبوده‌اند. پس از آن، از شرکت‌کنندگان پرسیده شد که موفقیت یا عدم موفقیت کار را تا چه اندازه به شخ دیگر (یا هوش مصنوعی) در گفتگو نسبت می‌دهند. مطالعه دوم با تمرکز بر اثرات زبانی بود؛ این‌که چگونه مردم به پاسخ‌های هوشمند جواب‌های مثبت یا منفی می‌دادند.

هوهنشتاین دریافت که زبانی که افراد با پاسخ‌های هوشمند استفاده می‌کنند به سمت مثبت منحرف می‌شود و احتمال بیش‌تری وجود داشت که افراد با یک پیشنهاد مثبت روبه‌رو شوند تا یک پیشنهاد منفی؛ شرکت‌کنندگان اغلب در موقعیتی قرار می‌گرفتند که می‌خواستند با هم مخالفت کنند، اما فقط به آن‌ها ابزار موافقت می‌شد. اثر این است که مکالمه سریع‌تر و روان‌تر پیش برود؛ هوهنشتاین متوجه شد که این موضوع باعث می‌شود افراد در مکالمه نیز احساس بهترین نسبت به یک‌دیگر داشته باشند.

هوهنشتاین فکر می‌کند که این می‌تواند در روابط حرفه‌ای نتیجه‌ای معکوس داشته باشد: این فناوری (ترکیب با قالبت‌های پیشنهادی خودمان) می‌تواند ما را از به چالش کشیدن کسی یا اصلاً مخالفت، منصرف کند. برای کارآمدتر کردن ارتباطات‌مان، هوش مصنوعی همچنین می‌تواند احساسات واقعی ما را از آن بیرون بکشد و تبادلات را به دوست دارم کاهش دهد و این به‌نظر خوب است. اما از طرفی، این موضوع می‌تواند باعث کاشه انگیزه باشد.

در مطالعه تکمیل کار، هوهنشتاین دریافت که انسان‌ها اعتبار نتایج مثبت را می‌گیرند. وقتی مشکلی پیش‌ می‌آمد، هوش مصنوعی سرزنش می‌شد. با انجام این کار، الگوریتم از روابط انسانی محافظت کرد و یک بافر برای شکست‌های خودمان فراهم کرد. این یک سوال عمیق‌تر از شفافیت را ایجاد می‌کند: آیاد باید آشکار شود که یک هوش مصنوعی به ایجاد پاسخ‌ها کمک کرده است؟ هنگامی که یک شریک از Smart Reply استفاده می‌کرد، در ابتدا باعث می‌شد گیرنده احساس مثبت‌تری نسبت به شخص دیگری داشته باشد اما وقتی به آن‌ها گفته شد که یک هوش مصنوعی درگیر است، احساس ناراحتی کرده‌اند.

این زیربنای پارادوکسی است که از طریق استفاده از چنین فناوری انجام می‌شود: ادراک و واقعیت هم‌سو نیستند. هوهنشتاین می‌گوید:

مردم تحت تأثیر قرار می‌گیرند اما ادراک بین‌فردی را از افرادی که با آن‌ها در ارتباط هستید، بهبود می‌بخشد؛ چیزی که خلاف شهود است.

هنکاک در مقاله‌اش نشان می‌دهد که چگونه این ابزارها ممکن است تأثیرات اجتماعی گسترده‌ای داشته باشند و یک برنامه تحقیقاتی را برای رسیدگی به یک انقلا تکنولوژیکی که زیربینی ما رخ داده است، ترسیم می‌کند. ارتباطات با واسطه هوش مصنوعی می‌تواند نحوه صحبت ما را تغییر دهد، تعصب را کاهش دهد یا آن را تشدید کند. ممکن است ما را متعجب کند که واقعاً با چه کسی صحبت می‌کنیم. این موضوع حتی می‌تواند درک ما از خود را تغییر دهد. اگر هوش مصنوعی پیام‌های یک فرستنده را به‌گونه‌ای تغییر دهد که مثبت‌تر، خنده‌دارتر یا برون‌گراتر باشند، آیا برداشت فرستنده از خود به سمت مثبت‌تر، خنده‌دار یا برون‌گراتر تغییر خواهد کرد؟ اگر هوش مصنوعی بیش از حد روابط ما را در اختیار بگیرد، پس واقعاً چه چیزی برای ما باقی می‌ماند؟

 

منابع نوشته
برچسب‌ها
در بحث شرکت کنید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

     مدرسه کارو