بر پایه آزمایشهای اولیهای که OpenAI برای فهمیدن بهتر و این چنین جلوگیری از صدمههای «فاجعهبار» احتمالی ناشی از هوش مصنوعی ChatGPT انجام داده است، مدل GPT-4 در تحقیقات مربوط به ساخت سلاحهای بیولوژیکی، نسبت به اینترنت معمولی، مزیت جزئی به کاربران اراعه میکند.
بر پایه گزارش بلومبرگ، قانونگذاران و حتی برخی از مدیران فناوری در ماههای قبل نگرانیهای خود در این مورد که آیا هوش مصنوعی میتواند گسترش سلاحهای بیولوژیکی را آسانتر کند یا نه، ابراز کردهاند. در ماه اکتبر، «جو بایدن»، رئیس جمهور ایالاتمتحده یک فرمان اجرایی در رابطه هوش مصنوعی امضا کرد که به وزارت انرژی دستور داد تا مطمعن اشکار کند سیستمهای هوش مصنوعی خطرات شیمیایی، بیولوژیکی یا هستهای به همراه ندارند.
در همان ماه، OpenAI تیم موسوم به «چهارچوب آمادگی» را راه اندازی داد که مقصد آن بهحداقل رساندن این خطرات و دیگر خطرات ناشی از هوش مصنوعی است.
قیاس هوش مصنوعی ChatGPT و اینترنت معمولی
اکنون محققان تیم آمادگی OpenAI بهگفتن بخشی از اولین مطالعه خود، از ۵۰ متخصص زیستشناسی و ۵۰ دانشآموز پشتیبانی گرفته است. به نیمی از آنها حرف های شد تا از طریق اینترنت دستورات مربوط به ساخت یک تهدید بیولوژیکی را جمعآوری کنند و گروه دیگر علاوه بر اینترنت، به یک نسخه اختصاصی و بدون محدودیت از مدل زبانی بزرگ GPT-4 نیز دسترسی داشتند. ماموریت شرکتکنندگان این می بود که درمورد یک ماده شیمیایی که امکان منفعت گیری از آن بهگفتن سلاح وجود دارد، اطلاعات جمعآوری کنند. علاوه براین، از آنها خواسته شده می بود تا درمورد نحوه انتشار کردن این ماده شیمیایی نیز تحقیق کنند.
محققان OpenAI درنهایت بعد از قیاس نتایجی که این دو گروه بهدست آوردند، در مطالعه خود به افزایش جزئی دقت و تمامیت تحقیق گروهی اشاره کردند که به ChatGPT دسترسی داشتند. برهمین مبنا، آنها به این نتیجه رسیدند که دسترسی به GPT-4 بهطور جزئی علتمیبشود تا تحقیق در رابطه ساخت یک تهدید بیولوژیکی آسانتر بشود. این چنین به حرف های آنها گروهی که از ChatGPT منفعت گیری کردهاند، جوابهای دقیقتری داشتند.