නව පර්යේෂණයකින් ආරක්ෂක AI තාක්ෂණයේ බරපතල හිඩැසක් එළියට

ආරක්ෂාවට හදපු AI මොඩල්ස් ඇත්තටම ආරක්ෂිතද? අලුත් පර්යේෂණයකින් කියන්නේ ඒවාට "Catastrophic forgetting" වැළඳී ඇති බවයි. ව්‍යාපාරිකයින් සහ ටෙක් වෘත්තිකයන් දැනගත යුතුම කතාව.

AI security model failure research study

නව පර්යේෂණයකින් ආරක්ෂක AI තාක්ෂණයේ බරපතල හිඩැසක් එළියට

කර්තෘ: SiBuzz ප්‍රවෘත්ති අංශය | 2026 ජනවාරි 17

කෘත්‍රිම බුද්ධිය (AI) ගැන කර්මාන්තයේ තිබුණු ලොකුම විශ්වාසයක් අද බිඳවැටී තිබෙනවා. අද (ජනවාරි 17) නිකුත් වූ නවතම පර්යේෂණයකින් හෙළිවී ඇත්තේ, විශේෂිත ආරක්ෂක කටයුතු සඳහා සකසන ලද (Fine-tuned) භාෂා මාදිලි (LLMs) අලුත් සහ නුහුරු තර්ජන හඳුනාගැනීමේදී අසාර්ථක විය හැකි බවයි.

"New Research Exposes Critical Generalization Failures in Fine-Tuned Security Models" නමින් නිකුත් වූ මෙම වාර්තාවට අනුව, හුරුපුරුදු දත්ත සමඟ වැඩ කරන විට මෙම මොඩල්ස් ඉතා දක්ෂයි. නමුත් ගැටලුව වන්නේ සාමාන්‍ය තර්ක කිරීමේ හැකියාව (General reasoning) ඒවාට අමතක වී යාමයි ("Catastrophic forgetting"). මේ නිසා සාමාන්‍ය රටාවෙන් බැහැර වූ සංකීර්ණ Phishing ප්‍රහාර හමුවේ ඔබේ ව්‍යාපාරික දත්ත අනතුරේ වැටීමේ අවදානමක් මතුවෙනවා.

කාර්යක්ෂමතාව ද? ආරක්ෂාව ද?

තාක්ෂණික අංශයේ ව්‍යාපාර හිමිකරුවන්ට සහ තීරණ ගන්නා නිලධාරීන්ට මෙය ඉතා තීරණාත්මක මොහොතක්. මෙතෙක් කල් කර්මාන්තයේ පිළිගැනීම වුණේ GPT-5 හෝ Llama-4 වැනි General Model එකක් ගෙන, එය අපේම දත්තවලින් Fine-tune කළ විට "විශේෂඥයෙක්" බිහිවෙන බවයි. නමුත් අලුත් සොයාගැනීමෙන් කියවෙන්නේ එම ක්‍රියාවලිය හරහා බිහිවන්නේ "කටපාඩම් කරපු සිසුවෙක්" මිසක්, ඕනෑම අවස්ථාවකට මුහුණ දිය හැකි බුද්ධිමත් ආරක්ෂකයෙක් නොවන බවයි.

මොකක්ද විකල්පය? ආරක්ෂක අංශයේ ඉංජිනේරුවන් දැන් සම්ප්‍රදායික Fine-tuning වෙනුවට Hybrid Architectures වෙත මාරු විය යුතුයි. එනම්, තර්ක කිරීම සඳහා General Models භාවිතා කරමින්, අවශ්‍ය දත්ත සෙවීම සඳහා RAG (Retrieval-Augmented Generation) තාක්ෂණය යොදා ගැනීමයි. මේ හරහා වියදම් අධික නැවත පුහුණු කිරීම් (Re-training) නැවැත්වීමටත්, අලුත් තර්ජන පැමිණි විගස Vector databases යාවත්කාලීන කිරීමටත් හැකියාව ලැබෙනවා.

රතු වෑන් සහ නිල් කාර්: සරල උදාහරණයක්

මෙම තාක්ෂණික ගැටලුව සරලව තේරුම් ගනිමු. ඔබ ආරක්ෂක නිලධාරියෙක්ට උගන්වනවා "රතු වෑන්" ගැන විතරක් සැක කරන්න කියලා. එයා රතු වෑන් අල්ලන්න ඉතා දක්ෂයි. නමුත් හොරෙක් "නිල් කාර්" එකකින් ආවොත් එයාට ඒක අතපසු වෙනවා. මොකද එයාගේ පුහුණුව පටු නිසා.

Fine-tuned Models වලට වෙන්නෙත් මේකමයි. හැබැයි General Models වලට පුළුල් ලෝක දැනුමක් (World knowledge) තියෙන නිසා, ඒවාට සැක කටයුතු ඕනෑම දෙයක් හඳුනාගැනීමේ හැකියාව වැඩියි.

කාසියෙ දෙපැත්ත: වියදම සහ වේගය

මේ කතාවේ අනිත් පැත්තකුත් තියෙනවා. Fine-tuning සම්පූර්ණයෙන්ම අතහරින්න බැරි ප්‍රායෝගික හේතු කිහිපයක් තිබෙනවා:

  • වියදම (Cost): General Models ධාවනය කරන්න (Compute costs) විශාල මුදලක් යනවා. උදාහරණයකට ගනුදෙනු මිලියන ගණනක් කරන Fintech සමාගමකට හැම පරීක්ෂාවක්ම General AI එකකින් කරන්න ගියොත් එය මූල්‍යමය වශයෙන් දරාගන්න අමාරුයි.
  • දත්ත රහස්‍යභාවය (Privacy): UK GDPR රෙගුලාසි එක්ක බලද්දි, පාරිභෝගික දත්ත RAG සිස්ටම් එකක Live තියාගන්නවාට වඩා, මොඩල් එක ඇතුලටම "Bake" කරලා මුල් දත්ත මකා දමන එක ආරක්ෂිත වෙන්න පුළුවන්.

රැකියා වෙළඳපොළට බලපෑම

එක්සත් රාජධානියේ Tech අංශයේ රැකියා කරන ශ්‍රී ලාංකික වෘත්තිකයන්ට මෙය වැදගත් පණිවිඩයක්. වෙළඳපොළේ ඉල්ලුම දැන් "Model Training" වලින් "AI Evaluation" සහ "Red Teaming" දෙසට මාරු වෙමින් පවතිනවා.

  • සේවකයින්ට: ඔබ මොඩල්ස් පුහුණු කරන කෙනෙක් නම්, දැන්ම ඒවා පරීක්ෂා කරන (Evaluating) පැත්තට යොමු වෙන්න. මෙවැනි දුර්වලතා සොයාගැනීමට ටෙස්ට් ඩිසයින් කරන්න පුළුවන් නම් ඔබට ඉහළ ඉල්ලුමක් තියෙයි.
  • ව්‍යාපාරිකයින්ට: "Custom-trained" කියලා විකුණන ලාභ ආරක්ෂක මෙවලම් ගැන දෙපාරක් හිතන්න. ඔබේ සයිබර් ආරක්ෂාව එක අතපසු වීමකින් සම්පූර්ණයෙන්ම බිඳ වැටෙන්න පුළුවන්.

අවධානය යොමු නොවූ කරුණු

මේ පර්යේෂණය ඉතා වැදගත් වුණත්, අපේ වගේ ඩයස්පෝරා ප්‍රජාවන්ට අදාළ වන Singlish (සිංහල සහ ඉංග්‍රීසි මිශ්‍ර) වැනි භාෂා භාවිතයන් හරහා එන ප්‍රහාරවලට මෙම මොඩල්ස් මුහුණ දෙන්නේ කොහොමද කියන එක ගැන තවම පැහැදිලි නැහැ. ඒ වගේම OpenAI හෝ Anthropic වැනි දැවැන්තයින් මේ ගැටලුවට දෙන විසඳුම ගැන තාම ප්‍රතිචාර දක්වා නැහැ.


මූලාශ්‍රය (Source): https://arxiv.org/abs/2601.10524