نتایج یک پژوهش گسترده بینالمللی نشان میدهد که مدلهای زبانی بزرگ مبتنی بر هوش مصنوعی، مانند ChatGPT و Gemini، در نگارش بخش قابل توجهی از مقالات علمی منتشرشده در سالهای اخیر نقش داشتهاند. این یافتهها نگرانیهایی را در جامعه علمی درباره اصالت و دقت محتوای پژوهشی برانگیخته است.
تحلیل ۱۵ میلیون چکیده علمی برای ردگیری اثر هوش مصنوعی
به گزارش ایسنا و به نقل از پایگاه علمی Phys، گروهی از پژوهشگران از ایالات متحده و آلمان با بررسی بیش از ۱۵ میلیون چکیده مقاله در پایگاه PubMed، به دنبال شناسایی میزان نفوذ مدلهای زبانی بزرگ در متون علمی بودند. آنها با تحلیل الگوهای زبانی و واژگان بهکاررفته در این مقالات، به شواهدی دست یافتند که نشان میدهد از زمان ظهور گسترده ابزارهایی مانند ChatGPT، استفاده از واژههای خاص و ساختارهای زبانی رایج در تولیدات هوش مصنوعی بهطور چشمگیری افزایش یافته است.
حداقل ۱۳.۵ درصد مقالات سال ۲۰۲۴ با کمک هوش مصنوعی نوشته شدهاند
بر اساس یافتههای این مطالعه، دستکم ۱۳.۵ درصد از مقالات منتشرشده در سال ۲۰۲۴ نشانههایی از استفاده مستقیم یا غیرمستقیم از مدلهای زبانی بزرگ دارند. این رقم نشاندهنده رشد سریع استفاده از ابزارهای هوش مصنوعی در نگارش علمی است؛ پدیدهای که تنها در کمتر از سه سال پس از عرضه عمومی ChatGPT رخ داده است.
تغییر در سبک نگارش و انتخاب واژگان
پژوهشگران با بهرهگیری از رویکردی مشابه مطالعات اپیدمیولوژیک، تغییرات زبانی را پیش و پس از عرضه عمومی مدلهای زبانی بزرگ بررسی کردند. نتایج نشان داد که پس از رواج این ابزارها، استفاده بیش از حد از واژههای گلچینشده و ساختارهای زبانی خاص بهطور معناداری افزایش یافته است. این تغییرات میتواند نشاندهنده نقش مستقیم هوش مصنوعی در تولید محتوای علمی باشد.
تفاوت در میزان استفاده میان کشورها و حوزههای علمی
مطالعه همچنین نشان داد که میزان استفاده از مدلهای زبانی بزرگ در نگارش مقالات، بسته به کشور، حوزه پژوهشی و محل انتشار مقاله متفاوت است. برخی کشورها و رشتهها وابستگی بیشتری به این ابزارها نشان دادهاند، در حالی که در برخی دیگر، استفاده محدودتر بوده است.

نگرانیها درباره دقت علمی و سوگیری محتوایی
با وجود مزایای بالقوه هوش مصنوعی در تسهیل نگارش و ویرایش متون علمی، پژوهشگران هشدار دادهاند که اتکای بیش از حد به این ابزارها ممکن است به کاهش دقت علمی، ایجاد سوگیریهای زبانی و حتی تضعیف فرآیند داوری علمی منجر شود. بهویژه آنکه تشخیص محتوای تولیدشده توسط انسان از محتوای تولیدشده یا ویرایششده توسط هوش مصنوعی روزبهروز دشوارتر میشود.
این پژوهش که در نشریه معتبر Science Advances منتشر شده، زنگ خطری برای جامعه علمی است تا در کنار بهرهگیری از فناوریهای نوین، چارچوبهای اخلاقی و نظارتی لازم را برای حفظ اصالت و اعتبار پژوهشهای علمی تدوین و اجرا کند.