تهدیدات پنهان در نسل جدید اسباب بازیهای هوش مصنوعی

تهدیدات پنهان در نسل جدید اسباب بازیهای هوش مصنوعی

به گزارش ابرنت، خیلی از شرکت ها بدون رعایت استانداردهای سخت گیرانه و گاه بدون نظارت نهادهای تنظیم گر، درحال عرضه اسباب بازی هایی هستند که نقش همراه و هم بازی را برای کودکان ایفا می کنند.



به گزارش ابرنت به نقل از مهر، در حالیکه صنعت جهانی اسباب بازی با سرعتی خیره کننده و تحت فشار رقابت تجاری بسمت ادغام مدلهای پیشرفته هوش مصنوعی در محصولات خردسالان حرکت می کند، نتایج اخیر محققان نشان داده است این روند بیشتر از آنکه بر پایه ارزیابی های جدی ایمنی، روان شناختی و اخلاقی باشد، بر منطق بازار و نوآوری شتاب زده استوار است.
در همین راستا، خیلی از شرکتها بدون آنکه مکلف به رعایت استانداردهای سخت گیرانه باشند یا تحت نظارت نهادهای تنظیم گر فعالیت کنند، درحال عرضه اسباب بازی هایی هستند که در عمل نقش همراه، هم بازی و حتی منبع یادگیری را برای خردسالان ایفا می کنند. این تحول، در ظاهر جذاب و هماهنگ با پیشرفت فناوری، در حقیقت درحال باز کردن دریچه ای به سمت مجموعه ای از تهدیدهای عمیق و چندلایه برای خردسالان است؛ تهدیدهایی که نه فقط از دید عموم والدین پنهان می مانند، بلکه حتی متخصصان حوزه کودک نیز عمق آنرا هنوز به صورت کامل درک نکرده اند.

جهش خطرناک از «چت بات ها» به «اسباب بازیهای هوش مصنوعی»


پس از تمام گیر شدن چت بات های هوش مصنوعی در سطح جهان، ادغام این فناوری در اسباب بازیها تنها یک گام طبیعی و قابل پیشبینی به نظر می رسید، برای اینکه خیلی از شرکتها تلاش داشتند تجربه های تعاملی و شخصی سازی شده را برای خردسالان فراهم نمایند. در عین حال، آزمون های دقیق و میدانی محققان مرکز «US PIRG» نشان داده است این گام طبیعی به سرعت درحال تبدیل شدن به یک تهدید ساختاری برای سلامت جسمی، روانی و اجتماعی خردسالان است.
همه سه مدل اسباب بازی بررسی شده در این گزارش، شامل «Kumma» و «Miko 3» و «Curio’s Grok» در تبلیغات رسمی خود ادعا می کنند که برای گروه سنی ۳ تا ۱۲ سال مناسب هستند و حتی بعنوان ابزارهای آموزشی یا سرگرمی ایمن معرفی می گردند. در عین حال، عملکرد واقعی این اسباب بازیها در جریان گفت وگوهای بلندمدت، یعنی همان نوع تعاملی که خردسالان به صورت طبیعی در جریان بازیهای روزانه تجربه می کنند، تصویری خیلی نگران کننده ترسیم می کند. در این تعاملات طولانی، اسباب بازیها نه فقط از چارچوب های ایمنی وعده داده شده خارج شده اند بلکه به حوزه هایی پا گذاشته اند که می تواند برای خردسالان نتایج جدی و غیرقابل پیشبینی ایجاد نماید.

فرسایش تدریجی استاندارهای حفاظتی در گفت وگوهای طولانی


ارزیابی ها نشان داده است که هر سه اسباب بازی در گفتگوهای اولیه، رفتار قابل قبولی داشتند و به ظاهر بر اساس خطوط قرمزی که شرکتها برایشان طراحی نموده بودند، به پرسش ها پاسخ می دادند. اما در تعاملات باز و طولانی تر، یعنی زمانیکه کودک بدون محدودیت زمانی و در چهارچوب بازی آزاد با اسباب بازی صحبت می کند، لایه های محافظتی مدلها بتدریج گرفتار فرسایش شده و سازوکارهای مهارکننده رفتاری آنها از کار می افتند. این فرسایش تدریجی موجب می شود اسباب بازیها وارد حوزه هایی شوند که نه فقط بی ربط به سن کودک هستند، بلکه مستقیماً خطرناک، لطمه زا یا اختلال آفرین محسوب می شوند. بررسی های صورت گرفته نشان داده است که اسباب بازیهای مبتنی بر هوش مصنوعی، دامنه وسیعی از محتوای مخرب، مانند راهنمائی برای پیدا کردن چاقو، توضیح روش روشن کردن کبریت و حتی مباحث صریح درباب مسایل جنسی را به خردسالان ارایه می دهند.
به عقیده کارشناسان، این پدیده نشان داده است که سازوکارهای فعلی مدلهای زبانی، در مقابل فشار تعاملی ممتد و گفتگوی غیرخطی خیلی شکننده هستند؛ مشکلی که حتی شرکتهای بزرگ توسعه دهنده مدلهای زبانی، همچون اوپن ای آی، نیز بارها آنرا بعنوان یک چالش بنیادی و حل نشده پذیرفته اند. به بیان دیگر، ذات یادگیرنده و مولد این مدلها موجب می شود در تعاملات طولانی، تثبیت رفتاری آنها از بین برود و پاسخ ها تابع الگوهای نامطمئن و گاه بطورکامل پیشبینی ناپذیر شود.

مسئله ای فراتر از ایمنی: تأثیر بلند مدت بر رشد اجتماعی


به باور محققان، حتی اگر شرکتها موفق شوند استاندارد قوی تری طراحی نموده و سامانه های نظارتی سخت گیرانه تری برای کنترل عملکرد این اسباب بازیها پیاده سازی کنند، تهدیدهای بنیادین دیگری نیز وجود دارد که به آسانی قابل رفع نیستند؛ تهدیدهایی که مستقیماً به آینده رشد اجتماعی، هیجانی و شناختی خردسالان مربوط می شود. کودکی که بخش مهمی از تجربه روزمره خویش را با یک «دوست مصنوعی» شکل می دهد، بتدریج ممکنست جایگزینی ناپایدار برای روابط انسانی بیابد و گرفتار پیامدهایی همچون وابستگی عاطفی ناسالم، کاهش مهارت های تعامل اجتماعی و تشکیل الگوهای رفتاری ناسازگار شود. افزون بر این، خردسالان به علت ساختار شناختی درحال رشد و ناتوانی در تشخیص نیت واقعی موجودات غیرانسانی، بیشتر از دیگران در معرض اثرپذیری از پاسخ های مخرب و چالش برانگیز مدلهای زبانی هستند و این پاسخ ها می توانند باورهای ناصحیح یا رفتارهای لطمه زا را تثبیت کنند.
شواهد موجود از پدیده «سایکوز هوش مصنوعی» در بزرگسالان، همچون موارد مشهوری مانند قتل مادر به دنبال توهمات القاشده بوسیله ی یک چت بات، به روشنی نشان داده است که تعامل طولانی مدت با سامانه های هوش مصنوعی می تواند نتایج روانی شدید و غیرقابل پیشبینی داشته باشد. وقتی چنین تأثیراتی در بزرگسالانی مشاهده می شود که ظرفیت تشخیص واقعیت، مدیریت هیجان و کنترل شناختی خیلی بالاتری دارند، طبیعی است که این نگرانی در رابطه با خردسالان که در حساس ترین مرحله رشد مغز و شخصیت قرار دارند، چند برابر شود. خطر اصلی در این است که خیلی از این تغییرات آرام، تدریجی و نامرئی هستند و زمانی متوجه اثراتشان می شویم که شاید سال ها از تثبیت آنها گذشته باشد.

خلأ نظارتی: صنعتی که بدون مقررات جلو می رود


در حال حاضر هیچ چارچوب نظارتی مشخص، الزام آور و کارایی برای اسباب بازیهای مبتنی بر هوش مصنوعی وجود ندارد و این خلأ سبب شده شرکتها تقریبا بدون محدودیت و بدون پاسخ گویی وارد این حوزه شوند. در چنین شرایطی، هر تولیدکننده ای می تواند بدون طی مراحل ارزیابی ایمنی، بدون آزمون های مستقل و بدون درنظر گرفتن اثرات روان و رفتاری بر کودکان، محصولی را روانه بازار کند که از نظر کارکردی خیلی فراتر از یک اسباب بازی ساده عمل می نماید. همکاری اخیر شرکت بزرگی مانند اوپن ای آی با «Mattel» که به شکل سنتی برندهای محبوب خردسالان را تولید می کند، برای متخصصان حوزه رفاه کودک یک هشدار جدی محسوب می شود، برای اینکه نشان داده است ادغام مدلهای زبانی قدرتمند در اسباب بازیها به سرعت درحال تبدیل شدن به جریان اصلی صنعت فناوری است.
ورود گسترده و بی ضابطه اسباب بازیهای مبتنی بر هوش مصنوعی، بدون استانداردهای ایمنی مشخص، بدون سازوکارهای ارزیابی اثرات روان شناختی، بدون نظارت بر نحوه پردازش و ذخیره سازی داده های خردسالان و بدون تعریف یک نظام پاسخ گویی روشن برای خطاها و لطمه های احتمالی، زمینه ساز یک بحران بالقوه در مقیاس اجتماعی است. این فقدان مقررات به این معناست که اگر یک اسباب بازی هوشمند محتوای لطمه زا تولید نماید، رفتار خطرناک را تشویق کند، یا داده های حساس کودک را جمع آوری و منتقل نماید، هیچ نهاد مشخصی مسئولیت مستقیم، پیگیری یا جبران خسارت را برعهده ندارد. این شرایط در عمل خردسالان را به لابراتوار های نامرئی فناوری تبدیل می کند؛ لابراتوار هایی که نتایج آنها ممکنست سال ها بعد و زمانی آشکار شود که اصلاح مسیر خیلی دشوار شده است.

جمع بندی


پژوهشگران هشدار می دهند که اثرات واقعی این نسل از اسباب بازیهای هوش مصنوعی احتمالا تنها زمانی آشکار می شود که خردسالان امروز وارد بزرگسالی شوند؛ زمانیکه اصلاح مسیر شاید دیگر ممکن نباشد. از همین روی، مسئله نه فقط در رابطه با «ایمنی» بلکه در رابطه با بنیان های تربیتی، تشکیل روابط انسانی و رشد اجتماعی خردسالان است.
اسباب بازیهای مبتنی بر هوش مصنوعی با اینکه قادر هستند تجربه های آموزشی و سرگرمی جذابی خلق کنند، اما بدون حکمرانی جدی، استانداردهای سخت گیرانه و کنترل های اخلاقی، می توانند به یکی از تهدیدات مهم نسل جدید تبدیل شوند. در نهایت می توان نتیجه گرفت که این حوزه قبل از آنکه یک بحران اجتماعی گسترده تبدیل گردد، نیازمند اقدام فوری سیاست گذاران، متخصصان حوزه کودک و شرکتهای فناوری است. خلاصه اینکه همه سه مدل اسباب بازی بررسی شده در این گزارش، شامل Kumma و Miko 3 و Curio’s Grok در تبلیغات رسمی خود ادعا می کنند که برای گروه سنی ۳ تا ۱۲ سال مناسب هستند و حتی به عنوان ابزارهای آموزشی یا سرگرمی ایمن معرفی می گردند. به بیان دیگر، ذات یادگیرنده و مولد این مدلها سبب می شود در تعاملات طولانی، تثبیت رفتاری آنها از بین برود و پاسخ ها تابع الگوهای نامطمئن و گاه بطورکامل پیشبینی ناپذیر شود. این فقدان مقررات به این معناست که اگر یک اسباب بازی هوشمند محتوای لطمه زا تولید نماید، رفتار خطرناک را تشویق کند، یا داده های حساس کودک را جمع آوری و منتقل نماید، هیچ نهاد مشخصی مسئولیت مستقیم، پیگیری یا جبران خسارت را برعهده ندارد.

منبع:

1404/09/07
16:32:54
3
0.0 / 5
تگهای خبر: آموزش , ابزار , استاندارد , برند
این مطلب ابرنت را می پسندید؟
(0)
(0)
X

تازه ترین مطالب مرتبط ابرنت
نظرات بینندگان ابرنت در مورد این مطلب
لطفا شما هم نظر دهید
= ۱ بعلاوه ۱
پربیننده ترین ها

جالب ترین ها

تازه ترین ها

ابر نت