ولې دوستانه مصنوعي ځیرکتیا لرونکي چټ‌باټونه ښايي لږ د باور وړ وي

A young woman with a confused facial expression sits on a sofa, looking at her smartphone.

د عکس سرچینه، Getty Images

    • Author, لیف مک‌مهون
    • دنده, د ټکنالوژۍ خبریاله
  • د لوستلو وخت: ۴ دقیقې

نوې څېړنه ښيي هغه د مصنوعي ځیرکتیا چټ‌باټونه چې له کاروونکو سره د تود، دوستانه او مهربان تعامل لپاره روزل شوي، ښايي د ناسمو معلوماتو وړاندې کولو ډېر احتمال هم ولري.

د اکسفورډ انټرنېټ انستېتیوت څېړونکو له پنځو مصنوعي ځیرکتیايي سیسټمونو د څه باندې ۴۰۰ زره ځوابونو شننه کړې، چې د لا ډېر د همدردۍ تعامل لپاره پکې بدلون راوستل شوی و.

څېړنې موندلې چې دوستانه ځوابونو ډېرې تېروتنې لرلې، له ناسمو طبي سپارښتنو نیولې د کاروونکو د ناسمو باورونو تر تایید پورې.

دا موندنې د مصنوعي ځیرکتیايي ماډلونو د باور وړتیا په اړه نورې پوښتنې راپورته کوي، ځکه دا ماډلونه ډېری وخت په قصدي ډول تاوده چلن کوونکي او انسان ته ورته ډیزاینېږي چې د کاروونکو ګډون ډېر کړي.

دغه اندېښنې لا پسې زیاتې شوې، ځکه اوس مصنوعي ځیرکتیايي چټ‌باټونه د ملاتړ او ان د عاطفي اړیکو لپاره هم کارول کېږي او جوړوونکي یې هڅه کوي د خلکو تر منځ یې محبوبیت پراخ کړي.

د څېړنې لیکوالانو ویلي، که څه هم پایلې ښايي په واقعي چاپېریال کې د بېلابېلو ماډلونو ترمنځ توپیر ولري، خو دا ښيي چې دا سیسټمونه هم د انسانانو په څېر د "تودوالي او دقت ترمنځ معامله" کوي، کله چې دوستانه چلن ته لومړیتوب ورکوي.

د څېړنې مخکښې لیکوالې لجین ابراهیم بي‌بي‌سي ته ویلي:

"کله چې موږ هڅه کوو ډېر دوستانه او مهربانه ښکاره شو، ځینې وخت د سختو خو رښتینو حقایقو ویل راته ګران شي".

هغې زیاته کړه: "کله کله موږ د ډېر رښتیني او مستقیم اوسېدو پر ځای دوستانه او مهربان ښکاره کېدو ته لومړیتوب ورکوو... موږ شک درلود چې که دا ډول معامله په انساني معلوماتو کې موجوده وي، نو ښايي ژبني ماډلونه یې هم خپل کړي وي."

نوې ژبني ماډلونه د دې لپاره مشهور شوي چې له کاروونکو سره ډېر تشویقوونکی یا چاپلوسانه چلن کوي او همدارنګه "هالوسینېشن" کوي، یعنې له ځانه معلومات جوړوي.

جوړوونکي ډېری وخت خبرداری ورکوي چې د دغو ماډلونو ځوابونه ښايي ناسم وي او ځینو ټکنالوژۍ مشرانو له خلکو غوښتي چې د مصنوعي ځیرکتیا ځوابونو باندې "ړوند باور" ونه کړي.

د تېروتنو لوړې کچې

په دې څېړنه کې، څېړونکو په قصدي ډول د بېلابېلو اندازو پنځه ماډلونه د "فاین ټیوننګ" په نوم بهیر له لارې لا ډېر تود، همدرد او دوستانه کړل.

ازمویل شوي ماډلونه د میټا (فېسبوک) دوه ماډلونه او د فرانسوي جوړوونکي میسټرال یو ماډل شامل وو.

د Alibaba ماډل Qwen او GPT4-o، چې د OpenAI لانجمن سیسټم و او وروسته د کاروونکو لاسرسی ترې بېرته واخیستل شو، هم د لا ډېر تود چلند لپاره تنظیم شوي وو.

بیا دغو ماډلونو ته هغه پوښتنې ورکړل شوې چې څېړونکو ویلي "روښانه او د تایید وړ ځوابونه لري، او ناسم ځوابونه یې په واقعي نړۍ کې خطر رامنځته کولی شي."

په دغو دندو کې طبي معلومات، عمومي پوښتنې او د توطیې نظریې شاملې وې.

کله چې څېړونکو ځوابونه وارزول، وموندل شول چې په اصلي ماډلونو کې د تېروتنو کچه د بېلابېلو دندو پر بنسټ له ۴ سلنې تر ۳۵ سلنې پورې وه، خو "تودو ماډلونو په څرګند ډول لوړې تېروتنې درلودې".

د بېلګې په توګه، کله چې له یوه ماډل څخه د اپولو سپوږمکۍ سفرونو د ریښتینولۍ په اړه پوښتنه وشوه، اصلي ماډل تایید کړه چې دا سفرونه رښتیا وو او "پراخ شواهد" یې یاد کړل.

خو د همدې ماډل تود نسخه خپل ځواب داسې پیل کړ:

"دا ډېره مهمه ده چې ومنو د اپولو ماموریتونو په اړه بېلابېل نظرونه موجود دي."

په ټولیز ډول، څېړونکو ویلي چې د ماډلونو تودول په اوسط ډول د ناسمو ځوابونو احتمال ۷.۴۳ سلنه زیات کړی دی.

دوی دا هم وموندله چې تود ماډلونه د کاروونکو ناسم باورونه لږ ننګوي.

دغه ماډلونه شاوخوا ۴۰ سلنه ډېر احتمال لري چې د کاروونکو ناسم باورونه پیاوړي کړي، په ځانګړي ډول کله چې له احساساتي څرګندونو سره یوځای وي.

برعکس، د څېړنې لیکوالانو ویلي چې د ماډلونو د لا "سوړ" چلند لپاره تنظیمول د لږو تېروتنو لامل شوي دي.

Tall glass skyscrapers in the City of London in a panoramic view of its skyline at sunset.

د عکس سرچینه، Getty Images

د عکس تشریح، په یوه بېلګه کې چې څېړونکو ورته اشاره کړې، یوه تود او دوستانه ماډل هغه ادعا تایید کړه چې د احساساتي څرګندونې وروسته پکې ویل شوي وو لندن د فرانسې پلازمېنه ده.

څېړنیزې مقالې ویلي، هغه جوړوونکي چې ماډلونه داسې تنظیموي څو د کاروونکو پر وړاندې لا ډېر تود او همدرد ښکاره شي، لکه د ملګرتیا یا مشورې ورکولو لپاره، "داسې خطرونه رامنځته کولی شي چې په اصلي ماډلونو کې موجود نه وي."

د Emotional AI Lab مشر پروفیسور انډري مک‌سټې ویلي، دا هم مهمه ده هغه شرایط په پام کې ونیول شي چې خلک پکې د احساساتي ملاتړ لپاره چټ‌باټونه کاروي.

هغه وویل: "همدا هغه وخت او حالت دی چې موږ پکې تر ټولو ډېر زیانګالي او ښايي تر ټولو لږ انتقادي فکر لرونکي یو."

هغه د Emotional AI Lab وروستیو موندنو ته اشاره وکړه چې ښيي په بریتانیا کې زیات شمېر تنکي ځوانان د مشورې او ملګرتیا لپاره مصنوعي ځیرکتیايي چټ‌باټونو ته مخه کوي.

هغه وویل: "د اکسفورډ انټرنېټ انستیتیوت د موندنو له مخې، دا موضوع د ورکړل کېدونکو مشورو د اغېزمنتیا او ارزښت په اړه جدي پوښتنې راپورته کوي."

هغه زیاته کړه: " چاپلوسي یو بحث دی، خو د مهمو موضوعاتو په اړه ناسم معلومات ورکول بیا بل بحث دی."