DeepSeek-R1 භාවිතයේදී ආරක්ෂක අවදානම 10 ගුණයකින් ඉහළට?

DeepSeek-R1 භාවිතයේදී අනාරක්ෂිත ප්‍රතිචාර ලැබීමේ අවදානම 10 ගුණයකින් වැඩි බව නව පර්යේෂණයක් පෙන්වා දෙයි.

DeepSeek-R1 AI safety comparison with OpenAI

DeepSeek-R1 භාවිතයේදී ආරක්ෂක අවදානම 10 ගුණයකින් ඉහළට?

2026 වසරේ ව්‍යාපාරික සහ තාක්ෂණික ලෝකයට ඉතා වැදගත් වන නවතම පර්යේෂණ වාර්තාවක් arXiv හරහා පසුගියදා නිකුත් කෙරුණා. මෙහිදී මූලික අවධානය යොමු කර තිබුණේ දැනට ලොව ප්‍රමුඛතම "Reasoning" AI මාදිලි දෙකක් වන OpenAI හි o3-mini සහ එහි තරඟකරුවා වන DeepSeek-R1 හි ආරක්ෂක ක්‍රමවේදයන් (Safety protocols) සැසඳීම කෙරෙහි යි.

ප්‍රතිඵලය ඉතාම තීරණාත්මකයි. OpenAI හි o3-mini මාදිලිය අනාරක්ෂිත ප්‍රතිචාර දැක්වීමේදී (safety failure rate) 1.2% ක ඉතා අඩු ප්‍රතිශතයක් රඳවා ගනිද්දී, DeepSeek-R1 මාදිලිය 12% ක ඉහළ අසාර්ථක වීමක් පෙන්වා තිබෙනවා. සරලවම කිව්වොත්, DeepSeek-R1 හරහා අනාරක්ෂිත හෝ නුසුදුසු අන්තර්ගතයන් පිටවීමේ අවදානම දස ගුණයකින් වැඩියි.

"Open" මාදිලිවල සැඟවුණු වියදම

සාමාන්‍යයෙන් DeepSeek-R1 වැනි open-weights මාදිලි තාක්ෂණික ශිල්පීන් අතර ජනප්‍රිය වීමට හේතුව ඒවා භාවිත කිරීමට ඇති පහසුව සහ අඩු පිරිවැයයි. නමුත් මෙම අධ්‍යයනය පෙන්වා දෙන්නේ එම "නිදහස" සමඟ විශාල සැඟවුණු නඩත්තු බද්දක් (Maintenance tax) එන බවයි.

ව්‍යාපාරයක් OpenAI හි o3-mini වැනි Managed Service එකක් භාවිතා කරන විට, ඔවුන් මුදල් ගෙවන්නේ හුදෙක් බුද්ධියට (Intelligence) පමණක් නොවෙයි. ඔවුන් ඒ සමඟම එන ශක්තිමත් ආරක්ෂක ස්ථරයටත් (Safety layer) මුදල් ගෙවනවා. නමුත් DeepSeek-R1 වැනි මාදිලියක් භාවිතා කරන කුඩා පරිමාණයේ ව්‍යාපාරයකට හෝ මෘදුකාංග ඉංජිනේරුවරයෙකුට, එම ආරක්ෂක වැටවල් (Guardrails) තනිවම සකසා ගැනීමේ වගකීම සහ පිරිවැය දැරීමට සිදු වෙනවා.

විශ්වසනීයත්වය (Reliability) ප්‍රධාන සාධකය බවට පත්වීම

2023 සහ 2024 වසරවලදී AI ලෝකයේ ප්‍රධාන මිම්ම වුණේ Coding හෝ ගණිත ගැටළු විසඳීමේ හැකියාවයි. නමුත් 2026 වන විට AI තාක්ෂණය මූල්‍ය, සෞඛ්‍ය සහ නීති වැනි ක්ෂේත්‍රවලට බද්ධ වෙමින් පවතිනවා. මෙවැනි තත්ත්වයක් තුළ 12% ක වෙලාවක් වැරදි හෝ අනාරක්ෂිත තොරතුරු (Hallucinations) ලබා දෙන මෙවලමක් ආයතනික මට්ටමෙන් භාවිතා කිරීමේ ලොකු අවදානමක් තිබෙනවා. වෙළඳපොළ දැන් පැහැදිලිව කොටස් දෙකකට බෙදෙමින් පවතිනවා: පර්යේෂකයින් සඳහා "Raw" මාදිලි සහ ව්‍යාපාර සඳහා "Safe" මාදිලි වශයෙන්.

වෘත්තිකයන්ට බලපාන ආකාරය

විශේෂයෙන්ම එක්සත් රාජධානියේ (UK) තාක්ෂණික සහ උපදේශන ක්ෂේත්‍රවල සේවය කරන අයට මෙය ඉතා වැදගත්:

  • අවදානම සහ අමතර වැඩ (Risk vs. Overhead): API වියදම් අඩු කරගන්න කියලා ඔබ DeepSeek-R1 භාවිතා කරලා සේවාදායකයෙක්ට (Client) විසඳුමක් හදනවා නම්, ඒකෙන් එන ප්‍රතිදානයන් (Outputs) පිරිසිදු කරන්න අමතර ඉංජිනේරු කාලයක් වෙන් කරන්න වෙනවා. ඔබ හදන Customer Service Bot එකක් වැරදි දෙයක් කිව්වොත්, UK Online Safety නීති යටතේ එහි වගකීම එන්නේ AI මාදිලිය හදපු කෙනාට නෙවෙයි, ඒක ඉම්ප්ලිමන්ට් කරපු ආයතනයටයි.
  • රක්ෂණයක් වැනි ආරක්ෂාව: Mortgage උපදෙස් දීම හෝ වෛද්‍ය දත්ත විශ්ලේෂණය වැනි බැරෑරුම් වැඩවලදී, o3-mini වැනි මාදිලියකට වැඩිපුර ගෙවීම හරහා සිදුවන්නේ ව්‍යාපාරයේ කීර්තිනාමයට විය හැකි හානිය වලක්වා ගැනීමේ රක්ෂණයක් ලබා ගැනීමක් වැනියි.

Open Weights වල වාසියක් නැද්ද?

ආරක්ෂාව අතින් දුර්වල වුණත්, DeepSeek-R1 වෙනුවෙන් පෙනී සිටින පිරිසකුත් ඉන්නවා. සමහර විට ඕනාවට වඩා ආරක්ෂක ෆිල්ටර් දැමීම නිසා AI මාදිලියක සංකීර්ණ ගැටළු විසඳීමේ හැකියාව (Alignment tax) අඩු වෙන්න පුළුවන්.

පර්යේෂකයින්ට හෝ Cyber-security වෘත්තිකයන්ට මෙම 12% ක "ප්‍රතික්ෂේප කිරීමේ" අඩුව වාසියක් වෙන්න පුළුවන්. ඒ වගේම තමන්ගේ දත්ත පිටතට යනවට අකමැති ආයතනවලට, DeepSeek-R1 තමන්ගේම පුද්ගලික සර්වර් එකක (Private server) රඳවාගෙන වැඩ කිරීමට හැකි වීම o3-mini ලබා නොදෙන විශාල ආරක්ෂක වාසියක්.

අවසානයේදී මෙය තාක්ෂණික කාරණයකට වඩා ව්‍යාපාරික තීරණයක්. ඔබට අවශ්‍ය "Raw Power" එක සහ ස්වයං පාලනය ද, නැත්නම් ආරක්ෂිත සහ පාලනය කරන ලද පරිසරයක් ද යන්න තීරණය කළ යුත්තේ ඔබේ ආයතනය සතුව ආරක්ෂක පියවරයන් ගොඩනැගීමට ඇති සම්පත් ප්‍රමාණය මතයි.


මූලාශ්‍රය (Source): https://arxiv.org/abs/2501.18438