مچ اندازی فناوری با پژوهشگران/ هوش مصنوعی چگونه کم آورد؟
تاریخ انتشار: ۶ فروردین ۱۴۰۳ | کد خبر: ۴۰۰۰۷۶۱۹
خبرگزاری علم و فناوری آنا؛ سطوح تحقیقاتی با ظهور هوش مصنوعی در حال تغییر هستند. اگر فرصت کافی برای خواندن مقاله یا مجله نداشته باشید، ابزارهای هوش مصنوعی آن را برای شما خلاصه میکنند یا اگر در جستجوی منابع مرتبط با تحقیق خود هستید و استفاده از مشارکتهای انسانی، هزینههای کار شما را بالا میبرد، باز هم هوش مصنوعی میتواند به شما کمک کند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
هر یک از این ابزارها نشان میدهند که هوش مصنوعی میتواند در ترسیم و توضیح مفاهیم یا ایدهها برتر از انسان باشد. اما آیا در تحقیقات کیفی نیز میتوان هوش مصنوعی را جایگزین انسان کرد؟
محققان دانشکده بهداشت روان در دانشگاه ولینگتون نیوزلند به تازگی پژوهشهایی درباره استفاده از اپلیکیشنهای دوستیابی در دوران همهگیری کرونا انجام دادند و به این نتیجه رسیدند که گفتگو با چتباتها و دریافت پاسخهای مصنوعی آنها چندان دلگرمکننده نبوده است و این یافته نشان میدهد که چنین برنامههایی نمیتوانند به لحظ کیفی جایگزین انسانها شوند.
رویارویی پژوهشگران با هوش مصنوعی
تیم تحقیقاتی دانشگاه ولینگتون تحقیقات خود را درباره چگونگی استفاده مردم نیوزلند از اپلیکیشنهاب دوستیابی تلفن همراه در دوران همهگیری کرونا آغاز کرد تا مشخص شود که تجربیات دوستیابی در آن دوران چگونه تغییر کرده است. برای درک بهتر، پژوهشگران از شرکتکنندگان خواستند داستانهای خود را در مورد سناریوهای فرضی به اشتراک بگذارند. آنها طیف گستردهای از پاسخها را از ۱۱۰ شهروند نیوزلندی در فیسبوک دریافت کردند. برخی از داستانها خندهدار و برخی دیگر جدی بودند. عدهای از شرکتکنندگان در مورد چالشهایی مانند ملاقاتهای مجازی و اختلاف نظر در مورد واکسیناسیون یا ماسک زدن نوشتند و عدهای دیگر داستانهای عاشقانهای با جزئیات شگفتانگیز تعریف کردند.
درونمایۀ اصلی هر پژوهش اجتماعی برآمده از تجربههای زیسته و حقیقی است.مداخله هوش مصنوعی و پاسخهای غیرمنتظره
در مرحله اول تحقیق، این پاسخها اوج و فرود ملاقات آنلاین، کسالت و تنهایی قرنطینه و هیجان و ناامیدی از یافتن عشق در دوران کووید-۱۹ را به تصویر میکشید، اما چیزی که بیشتر جلوهگری میکرد نادیده گرفتن جنیههای مشارکت انسانی یا حتی بازخوردهای غیرمنتظرهای بود که شرکتکنندگان در تحقیق نشان میدادند. سپس، در آخرین مرحله از این پژوهش و در ۶۰ داستانی که شرکتکنندگان تعریف کردند چیزی به وضوح تغییر کرده بود: داستانها «بیاحساس» و کلمات انتخابشده بیش از حد رسمی و گاهی منسوخ بودند، ضمن آنکه هر کدام از داستانها حالت موعظهآمیز داشتند و «باید و نبایدها» در آنها زیاد بود.
محققان در این مرحله با استفاده از ابزارهای تشخیص هوش مصنوعی مانند زیرو جیپیتی (ZeroGPT) نتیجه گرفتند که شرکتکنندگان انسانی و یا حتی رباتها برای تعریف داستانها از هوش مصنوعی استفاده کردهاند. این نتیجۀ غیرمنتظرهای بود و جنبههای غیرقابلپیشبینی تحقیق را به پژوهشگران یادآوری کرد.
برخلاف این ادعا که هوش مصنوعی میتواند نتایج مشابه با پاسخهای انسانی به دست بدهد، پژوهشگران این تحقیق دریافتند که پاسخهای هوش مصنوعی نوعاً غمانگیز و کسالتبار هستند. یکی از پژوهشگران گفت: «این پژوهش به ما یادآوری کرد که درونمایۀ اصلی هر پژوهش اجتماعی برآمده از تجربههای زیسته و حقیقی است.»
آیا مشکل، هوش مصنوعی است؟
شاید بزرگترین تهدید برای تحقیقات انسانی هوش مصنوعی نباشد، بلکه فلسفهای باشد که بر این فناوری تاکید میکند.
باید دقت کرد که بیشتر ادعاها در مورد تواناییهای هوش مصنوعی و جایگزینی انسان با این فناوری از سوی دانشمندان علوم رایانهای است. در این نوع مطالعات، استدلال یا رفتار انسان اغلب با سیستم امتیازدهی یا گزارههای بله/خیر سنجیده میشود. چنین رویکردی، تجربه انسانی را در چارچوبی قرار میدهد که میتواند بهراحتی از طریق تفسیر محاسباتی یا مصنوعی مورد تجزیهو تحلیل قرار گیرد.
نقطه ضعف اصلی هوش مصنوعی
در مقابل، پژوهشگران انسانی و کیفی به تجربۀ بینظم، احساسی و زیستۀ افراد در روابط و دوستیابی میپردازند و هیجانات و ناامیدیهای افراد در روابط و دوستیابیهای آنلاین را بررسی میکنند و همچنین تلاش انسانی برای استفاده از برنامههای دوستیابی، و فرصتهای احتمالی برای صمیمیت در دوران قرنطینه کرونا را با نگاه انسانی ارزیابی میکنند. نتیجه نهایی نشان داد که هوش مصنوعی در شبیهسازی تجربیات انسانی ضعیف است.
اهمیت حضور انسانی
برخی ممکن است مولد بودن هوش مصنوعی را بپذیرند، یا اینکه تأکید کنند که هوش مصنوعی باید ابزاری برای محققان باشد. برخی دیگر نیز ممکن است به شکلهایی از جمعآوری دادهها، مانند نظرسنجی که مداخله هوش مصنوعی را به حداقل میرساند، رضایت دهند. مؤسسات دانشگاهی نیز باید دستبهکار شوند و به یاری محققانی بشتابند که در محیط متأثر از هوش مصنوعی در حال تحقیق هستند چرا که در هر حال و تا به امروز، محدودیتهای هوش مصنوعی نشان داده است که حضور انسان در تحقیقات اجتماعی همچنان ضروری است.
این گزارش تحلیلی از پایگاه خبری کانورسیشن به فارسی برگردان شده است.
انتهای پیام/
نازنین احسانی طباطباییمنبع: آنا
کلیدواژه: هوش مصنوعی پژوهش تحقیقات انسان چت جی پی تی کرونا کووید19 هوش مصنوعی هوش مصنوعی هوش مصنوعی شرکت کنندگان داستان ها پاسخ ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت ana.press دریافت کردهاست، لذا منبع این خبر، وبسایت «آنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۴۰۰۰۷۶۱۹ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
فناوری شبیه سازی Voice Engine چه خطراتی دارد؟
آزمایشکنندگان اولیه فناوری Voice Engine پذیرفته اند تا بدون رضایت افراد هویت آنها جعل نشود و توضیح دادند که صداها توسط هوش مصنوعی ایجاد شدهاند.
اخیراً نوع جدیدی از دیپ فیک معروف به «کلونینگ صدا» ظاهر شده است که از هوش مصنوعی (AI) برای تقلید صدای شما استفاده میکند.
OpenAI، سازنده ChatGPT، در توسعه از نرم افزار شبیه سازی صوتی جدیدتر است، اما آن را برای عموم منتشر نمیکند.
شرکت OpenAI فناوری Voice Engine خود را جمعه گذشته رونمایی کرد. این فناوری مشکوک میتواند صدای هر کسی را تنها در ۱۵ ثانیه پس از سخنرانی ضبط شده کپی کند.
شرکت OpenAI استفاده عمومی از این فناوری را "بسیار خطرناک" در نظر گرفت.
این شرکت در بیانیهای گفت: ما میدانیم که تولید صوتی که صدای مردم را تقلید میکند، خطرات قابلتوجهی را به همراه دارد، و بهویژه در سالهای انتخاباتی مهم است.
OpenAI توضیح داد که قصد دارد این فناوری را با برخی آزمایش کند، "اما در حال حاضر آن را به خاطر خطرات بالقوهای که دارد، در مقیاس بزرگ منتشر نخواهد کرد".
همچنین توضیح داد که آزمایشکنندگان اولیه Voice Engine موافقت کردند که بدون رضایت آنها جعل هویت افراد را جعل نکنند و اینکه این صداها توسط هوش مصنوعی ایجاد شدهاند.
تعدادی از استارتآپها در حال حاضر فناوری بازتولید صدا را میفروشند که برخی از آنها در دسترس عموم یا مشتریان تجاری منتخب مانند استودیوهای سرگرمی است.
منبع: المیادین
باشگاه خبرنگاران جوان علمی پزشکی فناوری