Web Analytics Made Easy - Statcounter

خبرگزاری علم و فناوری آنا؛ سطوح تحقیقاتی با ظهور هوش مصنوعی در حال تغییر هستند. اگر فرصت کافی برای خواندن مقاله یا مجله نداشته باشید، ابزار‌های هوش مصنوعی آن را برای شما خلاصه می‌کنند یا اگر در جستجوی منابع مرتبط با تحقیق خود هستید و استفاده از مشارکت‌های انسانی، هزینه‌های کار شما را بالا می‌برد، باز هم هوش مصنوعی می‌تواند به شما کمک کند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

هر یک از این ابزار‌ها نشان می‌دهند که هوش مصنوعی می‌تواند در ترسیم و توضیح مفاهیم یا ایده‌ها برتر از انسان باشد. اما آیا در تحقیقات کیفی نیز می‌توان هوش مصنوعی را جایگزین انسان کرد؟

محققان دانشکده بهداشت روان در دانشگاه ولینگتون نیوزلند به تازگی پژوهش‌هایی درباره استفاده از اپلیکیشن‌های دوست‌یابی در دوران همه‌گیری کرونا انجام دادند و به این نتیجه رسیدند که گفتگو با چت‌بات‌ها و دریافت پاسخ‌های مصنوعی آنها چندان دلگرم‌کننده نبوده است و این یافته نشان می‌دهد که چنین برنامه‌هایی نمی‌توانند به لحظ کیفی جایگزین انسان‌ها شوند.

رویارویی پژوهشگران با هوش مصنوعی

تیم تحقیقاتی دانشگاه ولینگتون تحقیقات خود را درباره چگونگی استفاده مردم نیوزلند از اپلیکیشن‌هاب دوستیابی تلفن همراه در دوران همه‌گیری کرونا آغاز کرد تا مشخص شود که تجربیات دوستیابی در آن دوران چگونه تغییر کرده است. برای درک بهتر، پژوهشگران از شرکت‌کنندگان خواستند داستان‌های خود را در مورد سناریو‌های فرضی به اشتراک بگذارند. آنها طیف گسترده‌ای از پاسخ‌ها را از ۱۱۰ شهروند نیوزلندی در فیسبوک دریافت کردند. برخی از داستان‌ها خنده‌دار و برخی دیگر جدی بودند. عده‌ای از شرکت‌کنندگان در مورد چالش‌هایی مانند ملاقات‌های مجازی و اختلاف نظر در مورد واکسیناسیون یا ماسک زدن نوشتند و عده‌ای دیگر داستان‌های عاشقانه‌ای با جزئیات شگفت‌انگیز تعریف کردند.

درونمایۀ اصلی هر پژوهش اجتماعی برآمده از تجربه‌های زیسته و حقیقی است.

مداخله هوش مصنوعی و پاسخ‌های غیرمنتظره

در مرحله اول تحقیق، این پاسخ‌ها اوج و فرود ملاقات آنلاین، کسالت و تنهایی قرنطینه و هیجان و ناامیدی از یافتن عشق در دوران کووید-۱۹ را به تصویر می‌کشید، اما چیزی که بیشتر جلوه‌گری می‌کرد نادیده گرفتن جنیه‌های مشارکت انسانی یا حتی بازخورد‌های غیرمنتظره‌ای بود که شرکت‌کنندگان در تحقیق نشان می‌دادند. سپس، در آخرین مرحله از این پژوهش و در ۶۰ داستانی که شرکت‌کنندگان تعریف کردند چیزی به وضوح تغییر کرده بود: داستان‌ها «بی‌احساس» و کلمات انتخاب‌شده بیش از حد رسمی و گاهی منسوخ بودند، ضمن آنکه هر کدام از داستان‌ها حالت موعظه‌آمیز داشتند و «باید و نباید‌ها» در آنها زیاد بود.

محققان در این مرحله با استفاده از ابزار‌های تشخیص هوش مصنوعی مانند زیرو جی‌پی‌تی (ZeroGPT) نتیجه گرفتند که شرکت‌کنندگان انسانی و یا حتی ربات‌ها برای تعریف داستان‌ها از هوش مصنوعی استفاده کرده‌اند. این نتیجۀ غیر‌منتظره‌ای بود و جنبه‌های غیرقابل‌پیش‌بینی تحقیق را به پژوهشگران یادآوری کرد.

برخلاف این ادعا که هوش مصنوعی می‌تواند نتایج مشابه با پاسخ‌های انسانی به دست بدهد، پژوهشگران این تحقیق دریافتند که پاسخ‌های هوش مصنوعی نوعاً غم‌انگیز و کسالت‌بار هستند. یکی از پژوهشگران گفت: «این پژوهش به ما یادآوری کرد که درونمایۀ اصلی هر پژوهش اجتماعی برآمده از تجربه‌های زیسته و حقیقی است.»

آیا مشکل، هوش مصنوعی است؟

شاید بزرگترین تهدید برای تحقیقات انسانی هوش مصنوعی نباشد، بلکه فلسفه‌ای باشد که بر این فناوری تاکید می‌کند.
باید دقت کرد که بیشتر ادعا‌ها در مورد توانایی‌های هوش مصنوعی و جایگزینی انسان با این فناوری از سوی دانشمندان علوم رایانه‌ای است. در این نوع مطالعات، استدلال یا رفتار انسان اغلب با سیستم امتیازدهی یا گزاره‌های بله/خیر سنجیده می‌شود. چنین رویکردی، تجربه انسانی را در چارچوبی قرار می‌دهد که می‌تواند به‌راحتی از طریق تفسیر محاسباتی یا مصنوعی مورد تجزیه‌و تحلیل قرار گیرد.

هوش مصنوعی در شبیه‌سازی تجربیات انسانی ضعیف است.

نقطه ضعف اصلی هوش مصنوعی

در مقابل، پژوهشگران انسانی و کیفی به تجربۀ بی‌نظم، احساسی و زیستۀ افراد در روابط و دوستیابی می‌پردازند و هیجانات و ناامیدی‌های افراد در روابط و دوستیابی‌های آنلاین را بررسی می‌کنند و همچنین تلاش انسانی برای استفاده از برنامه‌های دوست‌یابی، و فرصت‌های احتمالی برای صمیمیت در دوران قرنطینه کرونا را با نگاه انسانی ارزیابی می‌کنند. نتیجه نهایی نشان داد که هوش مصنوعی در شبیه‌سازی تجربیات انسانی ضعیف است.

اهمیت حضور انسانی

برخی ممکن است مولد بودن هوش مصنوعی را بپذیرند، یا اینکه تأکید کنند که هوش مصنوعی باید ابزاری برای محققان باشد. برخی دیگر نیز ممکن است به شکل‌هایی از جمع‌آوری داده‌ها، مانند نظرسنجی که مداخله هوش مصنوعی را به حداقل می‌رساند، رضایت دهند. مؤسسات دانشگاهی نیز باید دست‌به‌کار شوند و به یاری محققانی بشتابند که در محیط متأثر از هوش مصنوعی در حال تحقیق هستند چرا که در هر حال و تا به امروز، محدودیت‌های هوش مصنوعی نشان داده است که حضور انسان در تحقیقات اجتماعی همچنان ضروری است.

این گزارش تحلیلی از پایگاه خبری کانورسیشن به فارسی برگردان شده است.

انتهای پیام/

نازنین احسانی طباطبایی

منبع: آنا

کلیدواژه: هوش مصنوعی پژوهش تحقیقات انسان چت جی پی تی کرونا کووید19 هوش مصنوعی هوش مصنوعی هوش مصنوعی شرکت کنندگان داستان ها پاسخ ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت ana.press دریافت کرده‌است، لذا منبع این خبر، وبسایت «آنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۴۰۰۰۷۶۱۹ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

فناوری شبیه سازی Voice Engine چه خطراتی دارد؟

آزمایش‌کنندگان اولیه فناوری Voice Engine پذیرفته اند تا بدون رضایت افراد هویت آنها جعل نشود و توضیح دادند که صدا‌ها توسط هوش مصنوعی ایجاد شده‌اند.

اخیراً نوع جدیدی از دیپ فیک معروف به «کلونینگ صدا» ظاهر شده است که از هوش مصنوعی (AI) برای تقلید صدای شما استفاده می‌کند.

 OpenAI، سازنده ChatGPT، در توسعه از نرم افزار شبیه سازی صوتی جدیدتر است، اما آن را برای عموم منتشر نمی‌کند.

شرکت OpenAI فناوری Voice Engine خود را جمعه گذشته رونمایی کرد. این فناوری مشکوک می‌تواند صدای هر کسی را تنها در ۱۵ ثانیه پس از سخنرانی ضبط شده کپی کند.

شرکت OpenAI استفاده عمومی از این فناوری را "بسیار خطرناک" در نظر گرفت.

این شرکت در بیانیه‌ای گفت: ما می‌دانیم که تولید صوتی که صدای مردم را تقلید می‌کند، خطرات قابل‌توجهی را به همراه دارد، و به‌ویژه در سال‌های انتخاباتی مهم است.

OpenAI توضیح داد که قصد دارد این فناوری را با برخی آزمایش کند، "اما در حال حاضر آن را به خاطر خطرات بالقوه‌ای که دارد، در مقیاس بزرگ منتشر نخواهد کرد".

همچنین توضیح داد که آزمایش‌کنندگان اولیه Voice Engine موافقت کردند که بدون رضایت آنها جعل هویت افراد را جعل نکنند و اینکه این صدا‌ها توسط هوش مصنوعی ایجاد شده‌اند.

تعدادی از استارت‌آپ‌ها در حال حاضر فناوری بازتولید صدا را می‌فروشند که برخی از آنها در دسترس عموم یا مشتریان تجاری منتخب مانند استودیو‌های سرگرمی است.

منبع: المیادین

باشگاه خبرنگاران جوان علمی پزشکی فناوری

دیگر خبرها

  • پیوستن رهبران فناوری دنیا به هیئت فدرال ایمنی هوش مصنوعی آمریکا
  • ایران رتبه ۱۷ هوش مصنوعی را در جهان دارد
  • معرفی مراکز برتر مشاوره و سبک زندگی دانشگاه‌های کشور
  • هوش مصنوعی توانست ویرایش ژنی را هدفمند کند
  • تشخیص گرایش سیاسی افراد از روی چهره‌شان توسط هوش مصنوعی
  • فناوری در خدمت جنایت
  • نظم جهانی در آستانه فروپاشی است
  • چاقوی هوش مصنوعی چگونه نظام سلامت را جراحی می‎‌کند
  • فناوری شبیه سازی Voice Engine چه خطراتی دارد؟
  • نوآوری‌های ادامه‌دار با کمک هوش مصنوعی / ساخت دوربین و سمعک پردازشگر صدا و تصویر