CNI International Article
၂၀၂၅ ခုနှစ်၊ အောက်တိုဘာ ၁၇
စက်တင်ဘာလက ကုလသမဂ္ဂ လုံခြုံရေးကောင်စီတွင် ဩစတြေးလျနိုင်ငံခြားရေးဝန်ကြီး ပန်နီဝေါင် (Penny Wong) သည် AI နည်းပညာအကြောင်းကို မိန့်ခွန်းပြောကြားခဲ့သည်။
AI နည်းပညာသည် ကျန်းမာရေးနှင့် ပညာရေးကဲ့သို့ နယ်ပယ်များတွင် အလွန် အကျိုးကျေးဇူးများသော်လည်း နျူကလီးယား လက်နက်များနှင့် မောင်းသူမဲ့စနစ်များတွင် AI နည်းပညာသည် လူသားမျိုးနွယ်၏ အနာဂတ်ကို ခြိမ်းခြောက်လာနိုင်ကြောင်း ပြောကြားခဲ့သည်။
“နျူကလီးယားစစ်ပွဲကို လူသားတွေရဲ့ အသိဉာဏ်၊ ဆင်ခြင်တုံတရားနဲ့ ဝေဖန်ပိုင်းခြားဆုံးဖြတ်ပြီး ထိန်းချုပ် ကန့်သတ်နိုင်ခဲ့ပါတယ်။ AI နည်းပညာမှာတော့ ဒါတွေမရှိပါဘူး။ တာဝန်ယူမှု၊ တာဝန်ခံမှုလည်း မရှိပါဘူး။ ဒီလက်နက်တွေဟာ စစ်ပွဲကို ပုံစံပြောင်းလဲနိုင်ပြီး အဆိုးရွားဆုံး အနေအထားအထိ ရောက်ရှိစေနိုင်ပါတယ်”ဟု ပန်နီဝေါင်က ပြောကြားခဲ့သည်။
AI စစ်ဆင်ရေးသည် ကြီးမားသည့် ခြိမ်းခြောက်မှုဟူသည့် အိုင်ဒီယာသည် လူထုကြားတွင် ပျံ့နှံ့နေပြီး ထိုနည်းပညာကို လုံခြုံစိတ်ချမှုရှိစေရန် တိုက်တွန်းမှုများ ထွက်ပေါ်ခဲ့သည်။
သို့သော် နည်းပညာနှင့် စစ်ဆင်ရေးတွင် အဓိပ္ပာယ် မှားယွင်းကောက်ယူမှုများနှင့် ထင်ကြေးပေးမှုများက အမျိုးမျိုး ထွက်ပေါ်နေသည်။
သို့ဆိုလျှင် AI နည်းပညာသည် အနာဂတ် စစ်ပွဲပုံစံကို အမှန်တကယ် ပြောင်းလဲနိုင်မည်လော၊ တာဝန်ယူမှု၊ တာဝန်ခံမှု ကင်းမဲ့နေသလော ဆိုသည့် မေးခွန်းများကိုလည်း သုံးသပ်ကြည့်ရမည်ဖြစ်သည်။
စစ်ပွဲမှာ AI နည်းပညာကို ဘယ်လိုအသုံးပြုနေလဲ
********************************************
AI သည် နည်းပညာသစ် တစ်ခုဟု ပြော၍မရနိုင်ပေ။ AI ဆိုသည့် စကားလုံးသည် ၁၉၅၀ ပြည့်နှစ်များကတည်းက ပေါ်ပေါက်ခဲ့ခြင်းကြောင့် ဖြစ်သည်။
ယနေ့ခေတ်တွင်မူ ဘာသာစကားများ ထည့်သွင်းအသုံးပြုမှု၊ ကွန်ပျူတာနှင့် စက်ယန္တရား၏ သင်ယူလေ့လာ နိုင်စွမ်းအထိ အားလုံးကိုခြုံငုံပြီး AI ဆိုသည့် ခေါင်းစဉ်အောက်တွင် ထည့်သွင်းလာကြသည်။
ရှင်းရှင်းပြောရမည်ဆိုပါ AI သည် အချက်အလက်များကို စုဆောင်း ကောက်ယူပြီး ခန့်မှန်းချက် ထုတ်ခြင်း၊ အကြောင်းအရာ ဖန်တီးခြင်း သို့မဟုတ် ဆုံးဖြတ်ချက်များကဲ့သို့ ရလဒ်များကို ထုတ်လုပ်ပေးသည့် နည်းပညာဖြစ် သည်။
သို့သော် AI စနစ် အားလုံးသည်လည်း တူညီလှသည်တော့ မဟုတ်ပေ။
စစ်ဘက်ဆိုင်ရာတွင် AI ကို ပုံစံမျိုးစုံဖြင့် အသုံးပြုနေသည်။ အချို့ပုံစံများသည် စစ်သားများအတွက် နည်းပညာဖြင့် စစ်ရေးလေ့ကျင့်မှုများကဲ့သို့ လူကို ထိခိုက်စေခြင်းမရှိဘဲ အချို့ပုံစံများသည် ရန်သူများကို ပစ်မှတ်ထားရာတွင် အထောက်အကူရရန် AI ကို အသုံးပြုနေကြသည်။
ဥပမာပြရမည်ဆိုပါ အစ္စရေးစစ်တပ်သည် ဟားမာ့စ် အဖွဲ့ဝင်များကို ထောက်လှမ်းသိရှိရန် Lavender အမည်ရှိ AI tool များကို အသုံးပြုခဲ့သည်။
ထိုကဲ့သို့ လူသားများ၏ သေရေး၊ ရှင်ရေးကို AI ဖြင့် ခွဲခြားဆုံးဖြတ်ခြင်းသည် လူ့ကျင့်ဝတ် သိက္ခာပိုင်းဆိုင်ရာတွင် အငြင်းပွားမှုများ ပေါ်ပေါက်စေခဲ့သည်။
တာဝန်ခံမှုပြဿနာ
******************
AI ကြောင့် ထိခိုက်နစ်နာမှုများ ကြုံတွေ့ရချိန်တွင် ဘယ်သူက တာဝန်ယူမည်နည်း၊ တာဝန်ခံမည်နည်း ဆိုသည့် မေးခွန်းကို လူအများက မေးခွန်းထုတ်နေကြသည်။ ထိုအချက်သည် တာဝန်ယူမှု၊ တာဝန်ခံမှု အပိုင်းတွင် ဟာကွက် တစ်ခု ဖြစ်နေသည်ဟု ဆိုကြသည်။
သို့သော် ထိုမေးခွန်းများသည် အသစ်အဆန်းတော့ မဟုတ်ပေ။ မြေမြုပ်မိုင်းများ၊ ဒုံးကျည်များကဲ့သို့ အခြား လက်နက်စနစ် နည်းပညာများသည်လည်း လူသားများ၏ ထိန်းချုပ်မှုမလိုဘဲ အသုံးပြုနိုင်သည်။
သို့သော် ထိုလက်နက်များနှင့်ပတ်သက်ပြီး လူအများက တာဝန်ယူမှု၊ တာဝန်ခံမှုအပိုင်းကို မေးခွန်းထုတ်ခြင်း မရှိခဲ့ပေ။
သို့ဆိုလျှင် AI ကို အဘယ်ကြောင့် တမူထူးပြီး မေးခွန်းထုတ်နေကြပါသနည်း။ AI ကို အခြား စက်ယန္တရား စနစ်များ ကဲ့သို့ပင် လူသားများက ဖန်တီး၊ စီမံပြီး အသုံးပြုနေခြင်းဖြစ်သည်။
စစ်တပ်တွင် အထက်၊ အောက် အမိန့်နာခံမှုရှိပြီး AI ကို မည်သည့်အချိန်တွင် မည်သည့်ပုံစံဖြင့် အသုံးပြုမည် ဆိုခြင်းကို လူသားများက ဆုံးဖြတ်ရခြင်းဖြစ်သည်။
AI သည် သူ့ဘာသာသူ သီးခြားရပ်တည်နိုင်ခြင်း မရှိပေ။ ထို့ကြောင့် AI သည် သူ့ကိုယ်ပိုင် ဆုံးဖြတ်ချက်များဖြင့် လုပ်ဆောင်နိုင်မည်ဆိုသည့် အိုင်ဒီယာသည် မှားယွင်းနေသည်။
AI သည် တာဝန်ခံမှု မရှိသည့် အချက်မှာ မှန်ကန်သည်။ အဘယ်ကြောင့်ဆိုသော် AI သည် ပြီးပြည့်စုံသည့် နည်းပညာတစ်ခု မဟုတ်ပေ။ မည်သည့် စက်ယန္တရားကမှ လူသားများ၏ ဆင်ခြင်တုံတရားလောက် ပြည့်စုံခြင်း မရှိပေ။
ထို့ကြောင့် တာဝန်ယူမှု၊ တာဝန်ခံမှုဆိုသည့် စကားသည် AI နှင့် အခြားစက်ယန္တရားများကို တီထွင်အသုံးပြုသည့် လူသားများနှင့်သာ သက်ဆိုင်သည်။
ပြဿနာအစ လူသားက
********************
AI အပါအဝင် ဆန်းပြားရှုပ်ထွေးလှသည့် ကွန်ပျူတာစနစ်များသည် ၎င်းတို့၏ နည်းပညာ သံသရာ စက်ဝိုင်း အတွင်းမှာပင် လည်ပတ်နေခြင်း ဖြစ်သည်။
ပရိုဂရမ်များ ထည့်သွင်းခြင်း၊ အစီအစဉ်ရေးဆွဲခြင်း၊ နည်းပညာစနစ် လည်ပတ်ခြင်းနှင့် ထိုနည်းပညာများကို အဆုံးသတ်ခြင်း (ဖျက်သိမ်းပစ်ခြင်း) အစရှိသည့် သံသရာ စက်ဝိုင်းအတွင်းမှာပင် ရှိနေသည်။
အဆင့်တိုင်းတွင် လူသားများက ရွေးချယ်မှုများ ပြုလုပ်ရခြင်းဖြစ်သည်။
ရည်မှန်းချက်များကို သတ်မှတ်ခြင်း၊ စနစ်များကို စမ်းသပ်ခြင်း၊ ဘေးကင်းလုံခြုံမှု ရှိနေစေရန် လုပ်ဆောင်ခြင်း၊ တရားဥပဒေနှင့်အညီ အသုံးပြုခြင်း အစရှိသည့် အချက်များကို လူသားများက ဦးဆောင်စီမံရခြင်းဖြစ်သည်။
လူသားများ၏ ရွေးချယ်မှုကသာ AI ကို အကောင်းနှင့် အဆိုး၊ အကျိုးနှင့် အပြစ်ကို ကွဲပြားစေလိမ့်မည်ဖြစ်သည်။
AI ကို လူသတ်ရန် အသုံးပြုမည်ဆိုပါက ထိုစနစ်ကို အသုံးပြုရန် ဆုံးဖြတ်သည့် လူသားတွင်သာ တာဝန်ရှိမည် ဖြစ်သည်။
AI သည် အသုံးချခံ စနစ်တစ်ခုသာဖြစ်ပြီး လူသားသည် အသုံးချသူ၊ တစ်နည်းအားဖြင့် လက်သည်တရားခံ ဖြစ်သည်။ (ရှင်းအောင် ပြောရမည်ဆိုပါက လူတစ်ယောက်ကို သေနတ်ဖြင့် ပစ်သတ်သူသည် လူသတ်မှုဖြင့် အပြစ်ရှိသူဖြစ်ပြီး သူအသုံးပြုသည့် သေနတ်သည် အပြစ်ရှိသည်ဟု သတ်မှတ်၍မရပေ။)
ထို့ကြောင့် AI သည် စစ်ပွဲတွင် အပြောင်းအလဲများကို ဖြစ်ကောင်း ဖြစ်စေနိုင်လိမ့်မည်။ သို့သော် ထိုသို့သော အပြောင်းအလဲများအတွက် အဓိက တာဝန်ရှိသူမှာ AI ကို အသုံးပြုသည့် လူသားများသာဖြစ်သည်။
အချုပ်ဆိုရပါက စစ်ပွဲတိုင်းတွင် AI ကို အသုံးပြုသည်ဖြစ်စေ၊ အသုံးမပြုသည်ဖြစ်စေ ထွက်ပေါ်လာသည့် ရလဒ် များသည် လူသားများ၏ ရွေးချယ်မှုနှင့် ဆုံးဖြတ်ချက်အပေါ်တွင်သာ မူတည်နေမည်ဖြစ်သည်။
Source: Asia Times