ChatGPT වැනි බහුලව භාවිතා වන AI වේදිකා පිටුපස ඇති කෘත්‍රිම බුද්ධි ආකෘති (AI models) මගින්, මානව විශේෂඥයන්ට වඩා නව්‍ය පර්යේෂණ අදහස් ජනනය කරන බව නව අධ්‍යයනයකින් සොයාගෙන ඇත.

ස්ටැන්ෆර්ඩ් විශ්වවිද්‍යාලයේ චෙන්ග්ලෙයි සී (Chenglei Si), ඩියී යැන්ග් (Diyi Yang) සහ ටට්සුනොරි හෂිමොටෝ (Tatsunori Hashimoto) විසින් සිදු කරන ලද, 'විශාල භාෂා ආකෘති (LLMs) වලට නව්‍ය පර්යේෂණ අදහස් ජනනය කළ හැකිද?' ('Can LLMs Generate Novel Research Ideas?') නම් වූ මෙම ස්ටැන්ෆර්ඩ් විශ්වවිද්‍යාලයීය අධ්‍යයනයේදී, පර්යේෂකයන් විසින් විශාල භාෂා ආකෘති (LLMs) වලට, විශේෂඥ මානව පර්යේෂකයන් විසින් නිර්මාණය කරන අදහස් හා සමාන මට්ටමේ නව්‍ය පර්යේෂණ අදහස් ස්වයංක්‍රීයව ජනනය කළ හැකිද යන්න විමර්ශනය කරන ලදී.

LLM යනු ජනනීය කෘත්‍රිම බුද්ධියේ (generative AI) පදනම් ආකෘති වර්ගයක් වන අතර, OpenAI සහ ChatGPT විසින් භාවිතා කරනු ලබන ආකෘතිය ලෙස එය වඩාත් ප්‍රචලිතය.

මෙම පර්යේෂණයෙන් සොයා ගෙන ඇත්තේ LLM වලට නව්‍යතාවය, උද්යෝගය සහ ඵලදායීතාවය සඳහා ඉහළ ශ්‍රේණිගත කිරීම් ලබන අදහස් ජනනය කළ හැකි බවයි. කෙසේ වෙතත්, මානව විශේෂඥයන් වඩාත් ප්‍රායෝගික අදහස් වර්ධනය කර තිබුණි. එහෙත් සමස්තයක් වසයෙන් ගත් කළ, කෘත්‍රිම බුද්ධි ආකෘති මගින් වඩා හොඳ අදහස් ඉදිරිපත් කරන ලදී.

අධ්‍යයනයේ පර්යේෂකයෙකු වන චෙන්ග්ලෙයි සී නිව්ස්වීක් (Newsweek) වෙත පවසා ඇත්තේ මෙම දත්තවලින් අදහස් වන්නේ "බොහෝ දෙනා සිතුවාට වඩා මෙම අභියෝගාත්මක සහ නිර්මාණාත්මක කාර්යයන් සඳහා LLM පාදක AI වලට විශාල කාර්යභාරයක් ඉටු කළ හැකි බව" යි.

ඔහු තවදුරටත් පැවසුවේ, "සම්පූර්ණයෙන්ම ස්වයංක්‍රීය පර්යේෂණ නියෝජිතයන්ගේ ප්‍රායෝගිකත්වය සහ ඵලදායීතාවය" පෙන්වන "කිසිදු නිශ්චිත ප්‍රතිඵලයක් අප සතුව නොමැති" නමුත්, "අපි එම අනාගතය දෙසට ගමන් කරමින් සිටින අතර, එම දිනය පැමිණි විට විද්‍යාත්මක සොයාගැනීම් සිදු කරන ආකාරයෙහි විශාල වෙනස්කම් කිහිපයක් සඳහා එය තල්ලුවක් වනු ඇති" බවයි.

මෙකී අධ්‍යයනයට පාලන කණ්ඩායම් තුනක් ඇතුළත් විය; පළමුවැන්න නම් මානව විශේෂඥයින් 49 දෙනෙකු අදහස් ඉදිරිපත් කිරීමයි. දෙවැන්න, කෘත්‍රිම බුද්ධි වේදිකාව විසින් අදහස් ජනනය කරනු ලැබීමයි. තෙවැන්න, මේ දෙකේම එකතුවක් ලෙස, කෘත්‍රිම බුද්ධි නියෝජිතයෙකු විසින් අදහස් ජනනය කර, මානව විශේෂඥයෙකු විසින් එම අදහස් නැවත ශ්‍රේණිගත කිරීමයි.

ඉන් අනතුරුව, එක් එක් කාණ්ඩය යටතේ හොඳම අදහස් මොනවාදැයි තීරණය කිරීම සඳහා, මානව විශේෂඥයින්ගේ සහ LLM වල අදහස් නිර්නාමිකව සමාලෝචනය කර ශ්‍රේණිගත කිරීමට තවත් මානව විශේෂඥයින් 79 දෙනෙකු බඳවා ගන්නා ලදී.

පක්ෂපාතීත්වය, කේතනය, ආරක්ෂාව, බහුභාෂා භාවිතය, සත්‍යතාව, ගණිතය සහ අවිනිශ්චිතතාවය යන විවිධ මාතෘකා හතකට අදාළව මෙම අදහස් ජනනය කර තිබුණි.

LLM පාදක කෘත්‍රිම බුද්ධියට "අදහස් ජනනය කිරීමේ පද්ධති වැඩිදියුණු කිරීම සඳහා අනාගත ක්‍රමවේදයන් දැනුවත් කළ හැකි තීක්ෂ්ණ බුද්ධියක් ලබා දිය හැකි" බවත්, "ඕනෑම මිනිසෙකුට වඩා බොහෝ සෙයින් වැඩි" අදහස් ප්‍රමාණයක් නිපදවිය හැකි බවත්, "විශාල අදහස් සම්භාරයකින් හොඳම ඒවා පෙරාගැනීමේ" හැකියාව ඇති බවත් එම වාර්තාවේ සඳහන් විය.

කෙසේ වෙතත්, මෙම කෘත්‍රිම බුද්ධි වේදිකාවලට තරමක සීමාවන් පවතී. LLM පාදක AI මගින් ජනනය කරන ලද අදහස් ප්‍රමාණය වැඩි වන විට, අනුපිටපත් වූ අදහස් සංඛ්‍යාවද වැඩි විය. එයින් පෙන්නුම් කළේ අදහස් ජනනය කිරීමේදී ඒවාට යම් තරමක විවිධත්වයක් නොමැති බවයි.

LLM වලට තවමත් අදහස් විශ්වසනීය ලෙස ඇගයීමට නොහැකි බවද මෙම අධ්‍යයනයෙන් සොයාගෙන ඇත. වාර්තාවේ ලියා ඇති පරිදි, "මූලික වශයෙන් LLM ඇගයුම්කරුවන් මත පදනම් වූ නිගමන විශ්වාස කිරීම පිළිබඳවද එය ගැටළු මතු කරන" බව පර්යේෂකයෝ වැඩිදුරටත් පැවසූහ.

මෙම සොයාගැනීම් මගින් මානව විශේෂඥයින්ට ඇතිවිය හැකි බලපෑම පිළිබඳවද පර්යේෂකයෝ අදහස් දැක්වූ අතර, පර්යේෂණ අදහස් ජනනය කිරීම සඳහා කෘත්‍රිම බුද්ධිය හඳුන්වා දීම "අනපේක්ෂිත ප්‍රතිවිපාක" වලට හේතු විය හැකි බවට තීරණය කළහ.

ඔවුන් අනතුරු ඇඟවූයේ "කෘත්‍රිම බුද්ධිය මත අධික ලෙස රඳා පැවතීම මුල් මිනිස් චින්තනයේ පරිහානියට" හේතු විය හැකි බවත්, "අදහස් පිරිපහදු කිරීමට සහ පුළුල් කිරීමට අත්‍යවශ්‍ය වන මානව සහයෝගීතාව සඳහා ඇති අවස්ථා අඩු කළ හැකි" බවත්ය.

මෙම අධ්‍යයනය සිදු කිරීමට වසරක් ගත වූ අතර, චෙන්ග්ලෙයි සී විසින් X (කලින් Twitter) හි එය පළ කර තිබුණේ, "අප ප්‍රථම වරට සංඛ්‍යානමය වශයෙන් වැදගත් නිගමනයකට එළඹුණා: විශේෂඥ මානව පර්යේෂකයන් විසින් ලියන ලද අදහස් වලට වඩා LLM මගින් ජනනය කරන ලද අදහස් වඩාත් නව්‍ය වේ" යනුවෙන් සටහනක්ද සමගිනි.

ප්‍රතිචාරයක් ලබාදෙන්න

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Trending