චැට්බොට් (chatbots), යන්ත්‍ර ඉගෙනුම (machine learning), සහ අනෙකුත් ස්වයංක්‍රීය තාක්ෂණයන් ලොව පුරා ව්‍යාප්ත වෙද්දී, කෘත්‍රිම බුද්ධි (AI) යුගයේ ජීවිතය කෙබඳු වේදැයි කරන විමසා බැලීමකි මේ.

ඉදිරි වෛද්‍ය හමුවේදී තම වෛද්‍යවරයා වැරදි තොරතුරු ලබා දීමට නියමිත බව රෝගියෙකු දැන සිටියේ නම්, ඔවුන් වහාම එම හමුව අවලංගු කරනු ඇත. එහෙත්, ChatGPT වැනි උත්පාදක කෘත්‍රිම බුද්ධි ආකෘති (Generative artificial intelligence models) නිරන්තරයෙන්ම “hallucinate” (මායාවන් දැකීම) ලෙස හඳුන්වන තත්ත්වයකට පත් වේ – එය තාක්ෂණික ක්‍ෂේත්‍රයේ ව්‍යවහාරයේදී නොපවතින දේ ගොතා කීම හැඳින්වීමට යොදාගන්නා වචනයකි. එසේනම්, වෛද්‍යමය කටයුතු සඳහා කෘත්‍රිම බුද්ධිය භාවිතා කිරීමට යමෙකු කැමති වන්නේ ඇයි?

මෙහි සුබවාදී දර්ශනය මෙසේය: දැනටමත් සංවර්ධනය වෙමින් පවතින සමහර ආකෘති මෙන්, AI මෙවලම් සත්‍යාපනය කරන ලද වෛද්‍ය සාහිත්‍යය මත පුහුණු කරනු ලැබේ. එපමණක් නොව, ඒවා රෝගී වාර්තා සහ ස්මාර්ට් ඔරලෝසු මගින් ලබාගන්නා ජෛව දත්ත ද පරිලෝකනය කරයි. ඉන්පසුව, අනෙකුත් උත්පාදක AI මෙන්ම, ඒවා එක් එක් පරිශීලකයාට පෞද්ගලීකරණය කළ, සහ ප්‍රයෝජනවත් වීමට තරම් නිරවද්‍ය වූ පෙළ, ඡායාරූප, සහ වීඩියෝ පවා නිර්මාණය කරයි. මෙහි අශුභවාදී පැතිකඩ නම්: රජයන්, රක්ෂණ සමාගම්, සහ ව්‍යවසායකයින් පිරිවැය අඩු කර ගැනීම සඳහා දෝෂ සහිත AI හඳුන්වා දීමට කටයුතු කිරීමයි. එහි ප්‍රතිඵලය වන්නේ, මිනිස් වෛද්‍යවරුන්ගෙන් වෛද්‍ය ප්‍රතිකාර ලබා ගැනීමට මංමුලා වූ රෝගීන් පිරිසක් ඉතිරි වීමයි.

මේ වන විට, දේවල් වැරදි මඟකට යා හැකි ආකාරය සිතා ගැනීම පහසුය. විශේෂයෙන්ම, AI දැනටමත් අන්තර්ජාලය ඔස්සේ හානිකර උපදෙස් ලබා දීම සම්බන්ධයෙන් චෝදනාවට ලක්වී ඇත. පසුගිය වසන්තයේ අග භාගයේදී, ඇමෙරිකාවේ “ජාතික ආහාර ගැනීමේ අක්‍රමිකතා සංගමය” (National Eating Disorders Association) සිය චැට්බොට් සේවාව තාවකාලිකව අක්‍රීය කළේ, එය අහිතකර ආහාර පුරුදු දිරිමත් කළ බවට පරිශීලකයෙකු පැමිණිලි කිරීමෙන් පසුවය. එහෙත්, එක්සත් ජනපදයේ ජනතාවට තවමත් රෝග ලක්ෂණ ඇගයීම සඳහා AI භාවිතා කරන යෙදුම් (apps) බාගත කළ හැකිය. සමහර වෛද්‍යවරුන්, එහි පවතින මූලික ගැටලු නොතකා, රෝගීන් සමඟ වඩාත් සහකම්පනයෙන් සන්නිවේදනය කිරීම සඳහා මෙම තාක්ෂණය භාවිතා කිරීමට උත්සාහ කරමින් සිටිති.

“ChatGPT සහ අනෙකුත් විශාල භාෂා ආකෘති (large language models) ඉතා විශ්වාසයෙන් කතා කරන, ඉතා පැහැදිලිව අදහස් ප්‍රකාශ කරන, නමුත් බොහෝ විට වැරදිකරන සුලුයැ’යි ජෝන්ස් හොප්කින්ස් විශ්වවිද්‍යාලයේ පරිගණක විද්‍යා මහාචාර්ය මාර්ක් ඩ්‍රෙඩ්ස් පවසයි. කෙටියෙන් කිවහොත්, මිනිසුන්ට එහි වෛද්‍ය උපදෙස් විශ්වාස කිරීමට හැකි වීමට පෙර AI තව බොහෝ දුරක් යා යුතුව ඇත.

එසේ වුවද, ඩ්‍රෙඩ්ස් මෙම තාක්ෂණයේ අනාගතය පිළිබඳව සුබවාදීව බලයි. ඔහුගේ අලුතින් ප්‍රකාශයට පත් කරන ලද පර්යේෂණයකින් හෙළි වී ඇත්තේ, Reddit වැනි සමාජ මාධ්‍ය වේදිකාවල වෛද්‍යවරුන් ලබා දෙන නිර්දේශවලට සමාන උපදෙස් ChatGPT දැනටමත් ලබා දෙන බවයි. විවෘත මූලාශ්‍ර AI වේදිකාවක් වන Hugging Face හි සෞඛ්‍ය සේවා පිළිබඳ විශේෂඥතාවක් ඇති යන්ත්‍ර-ඉගෙනුම් ඉංජිනේරුවරියක වන කේටී ලින්ක් පවසන්නේ, අනාගත උත්පාදක ආකෘති වෛද්‍යවරයකු හමුවීම සම්පූර්ණයෙන්ම ප්‍රතිස්ථාපනය කරනවාට වඩා, එයට අනුපූරකයක් විය හැකි බවයි. උදාහරණයක් ලෙස, වෛද්‍ය හමුවකින් පසුව ප්‍රතිකාර සහ රෝග තත්ත්වයන් පිළිබඳව වඩාත් සවිස්තරාත්මකව පැහැදිලි කිරීමට හෝ භාෂා බාධක හේතුවෙන් ඇති වන වැරදි වැටහීම් වළක්වා ගැනීමට ඒවාට උපකාර කළ හැකිය.

ඊටත් වඩා සුබවාදී දැක්මක් ඉදිරිපත් කරන හාවඩ් වෛද්‍ය විද්‍යාලයේ කෘත්‍රිම බුද්ධිය සහ සෞඛ්‍ය සේවා පර්යේෂිකාවක වන ඕෂි බැනර්ජි, දත්ත මූලාශ්‍ර ගණනාවක් එකට ගලපා ගන්නා AI පද්ධති පිළිබඳව සිතුවමක් මවයි. ඡායාරූප, රෝගී වාර්තා, පැළඳිය හැකි සංවේදකවලින් ලැබෙන තොරතුරු සහ තවත් බොහෝ දේ භාවිතා කරමින්, “ඕනෑම කෙනෙකුට, ඕනෑම තැනක හොඳ සත්කාරයක් ලබා දීමට” ඒවාට හැකි වනු ඇතැයි ඇය පවසයි. ඔබේ අතේ අමුතු පලු දැමීමක් තිබේද? ඇය සිතන ආකාරයට, ඡායාරූපයක් විශ්ලේෂණය කර, ඔබට ගැළපෙනම ප්‍රතිකාරය සොයා ගැනීම සඳහා ඔබේ මෑතකාලීන ආහාර රටාව, ඔබ ගැවසුණු ස්ථාන පිළිබඳ දත්ත, සහ වෛද්‍ය ඉතිහාසය පරීක්ෂා කළ හැකි චර්ම රෝග යෙදුමක් (dermatology app) නිර්මාණය විය හැකිය.

වෛද්‍ය AI දියුණු වෙත්ම, මෙම කර්මාන්තය වැඩි වෙමින් පවතින රෝගී දත්ත ප්‍රමාණය සුරක්ෂිතව තබා ගත යුතුය. නමුත් නියාමකයින්ට වගකීම් සහගත ප්‍රගතියක් සඳහා දැන් සිටම අඩිතාලම දැමිය හැකි බව MIT හි යන්ත්‍ර-ඉගෙනුම් විද්‍යාගාරයක් මෙහෙයවන මර්සියේ ගස්සෙමි පවසයි. බොහෝ රෝහල් දැනටමත් Google වැනි තාක්ෂණික සමාගම්වලට ማንነት හෙළි නොවන සේ සකස් කළ රෝගී දත්ත අලෙවි කරයි; වෛද්‍ය AI ආකෘති වැඩිදියුණු කිරීම සඳහා එම තොරතුරු ජාතික දත්ත කට්ටලවලට එක් කරන ලෙස එක්සත් ජනපද නියෝජිතායතනවලට ඔවුන්ට නියම කළ හැකි බව ගස්සෙමි යෝජනා කරයි. මීට අමතරව, ෆෙඩරල් විගණන මගින් රෝහල් සහ වෛද්‍ය කණ්ඩායම් විසින් භාවිතා කරනු ලබන AI මෙවලම්වල නිරවද්‍යතාවය සමාලෝචනය කළ හැකි අතර, ප්‍රමිතියෙන් තොර මෘදුකාංග සඳහා ලබා දෙන වටිනා Medicare සහ Medicaid අරමුදල් කපා හැරිය හැකිය. වෛද්‍යවරුන්ට ද AI මෙවලම් නිකරුණේ භාර දීම නොකළ යුතුය; ඔවුන්ට ඒවා භාවිතා කරන ආකාරය පිළිබඳව පුළුල් පුහුණුවක් ලබා දිය යුතුය.

නිවැරදි ප්‍රතිඵල ලබා දෙනු ඇතැයි විශ්වාස කළ නොහැකි සේවාවන් සඳහා ලියාපදිංචි වීමට AI සමාගම් විසින් ආයතන සහ රෝගීන් පොළඹවා ගත හැකි ආකාරය පහසුවෙන් දැකගත හැකිය. නීති සම්පාදකයින්, සෞඛ්‍ය සේවා සපයන්නන්, තාක්ෂණික දැවැන්තයින්, සහ ව්‍යවසායකයින් අතිශය කල්පනාවෙන් ඉදිරියට යා යුතුය. මිනිස් ජීවිත ඒ මත රඳා පවතී.

කීත් වැග්ස්ටාෆ් විසිනි New Scientist සඟරාවෙනි

ප්‍රතිචාරයක් ලබාදෙන්න

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Trending