មគ្គុទ្ទេសក៍របស់ ISC ផ្តល់នូវក្របខ័ណ្ឌដ៏ទូលំទូលាយមួយដែលត្រូវបានរចនាឡើងដើម្បីភ្ជាប់គម្លាតរវាងគោលការណ៍កម្រិតខ្ពស់ និងគោលនយោបាយដែលអាចអនុវត្តបាន និងជាក់ស្តែង។ វាឆ្លើយតបទៅនឹងតម្រូវការបន្ទាន់សម្រាប់ការយល់ដឹងរួមនៃទាំងឱកាស និងហានិភ័យដែលបង្ហាញដោយបច្ចេកវិទ្យាដែលកំពុងរីកចម្រើន។ នេះគឺជាឯកសារសំខាន់សម្រាប់អ្នកដែលធ្វើការនៅទំនាក់ទំនងគោលនយោបាយនៅក្នុងយុគសម័យឌីជីថលដែលកំពុងផ្លាស់ប្តូរយ៉ាងឆាប់រហ័សរបស់យើង។
ក្របខណ្ឌស្វែងយល់ពីសក្តានុពលនៃ AI និងដេរីវេរបស់វាតាមរយៈកញ្ចក់ដ៏ទូលំទូលាយ ដែលគ្របដណ្តប់សុខុមាលភាពមនុស្ស និងសង្គម រួមជាមួយនឹងកត្តាខាងក្រៅដូចជាសេដ្ឋកិច្ច នយោបាយ បរិស្ថាន និងសន្តិសុខ។ ទិដ្ឋភាពមួយចំនួននៃបញ្ជីត្រួតពិនិត្យអាចមានភាពពាក់ព័ន្ធជាងផ្នែកផ្សេងទៀត អាស្រ័យលើបរិបទ ប៉ុន្តែការសម្រេចចិត្តកាន់តែប្រសើរឡើងហាក់ដូចជាទំនងជាប្រសិនបើដែនទាំងអស់ត្រូវបានពិចារណា បើទោះបីជាមួយចំនួនអាចត្រូវបានកំណត់យ៉ាងឆាប់រហ័សថាមិនពាក់ព័ន្ធក្នុងករណីពិសេសក៏ដោយ។ នេះគឺជាតម្លៃដើមនៃវិធីសាស្រ្តបញ្ជីត្រួតពិនិត្យ។
“នៅក្នុងយុគសម័យមួយដែលត្រូវបានសម្គាល់ដោយការច្នៃប្រឌិតបច្ចេកវិទ្យាយ៉ាងឆាប់រហ័ស និងបញ្ហាប្រឈមជាសាកលដ៏ស្មុគស្មាញ ក្របខ័ណ្ឌរបស់ ISC សម្រាប់ការវិភាគទូលំទូលាយ និងពហុវិមាត្រនៃផលប៉ះពាល់សក្តានុពលផ្តល់អំណាចដល់អ្នកដឹកនាំដើម្បីធ្វើការសម្រេចចិត្តប្រកបដោយការទទួលខុសត្រូវ។ វាធានាថា នៅពេលយើងជឿនលឿនផ្នែកបច្ចេកវិទ្យា យើងធ្វើដូច្នេះដោយគិតគូរយ៉ាងយកចិត្តទុកដាក់ចំពោះផលប៉ះពាល់ខាងសីលធម៌ សង្គម និងសេដ្ឋកិច្ច»។
លោក Peter Gluckman ប្រធាន ISC
ខណៈពេលដែលគោលការណ៍កម្រិតខ្ពស់ត្រូវបានប្រកាសឱ្យប្រើដោយអង្គការយូណេស្កូ អង្គការ OECD គណៈកម្មការអឺរ៉ុប និងអង្គការសហប្រជាជាតិ ក្នុងចំណោមអ្នកដទៃទៀត និងការពិភាក្សាផ្សេងៗបន្តទាក់ទងនឹងបញ្ហាអភិបាលកិច្ច បទប្បញ្ញត្តិ ក្រមសីលធម៌ និងសុវត្ថិភាពដែលមានសក្តានុពលនោះ មានគម្លាតធំរវាងគោលការណ៍ទាំងនេះ និង ការគ្រប់គ្រង ឬក្របខណ្ឌច្បាប់។ ISC ដោះស្រាយតម្រូវការនេះតាមរយៈការណែនាំថ្មីរបស់ខ្លួនសម្រាប់អ្នកបង្កើតគោលនយោបាយ។
មគ្គុទ្ទេសក៍នេះសម្រាប់អ្នកបង្កើតគោលនយោបាយមិនមានបំណងដើម្បីផ្តល់របបបទប្បញ្ញត្តិទេ ប៉ុន្តែជាការផ្តល់យោបល់ដល់ក្របខណ្ឌវិភាគដែលសម្របខ្លួន និងវិវឌ្ឍន៍ ដែលអាចគាំទ្រដល់ដំណើរការវាយតម្លៃ និងបទប្បញ្ញត្តិដែលអាចត្រូវបានបង្កើតឡើងដោយភាគីពាក់ព័ន្ធ រួមទាំងរដ្ឋាភិបាល និងប្រព័ន្ធពហុភាគី។
"ក្របខ័ណ្ឌគឺជាជំហានដ៏សំខាន់មួយនៅក្នុងការសន្ទនាជាសកលស្តីពី AI ព្រោះវាផ្តល់នូវមូលដ្ឋានដែលយើងអាចបង្កើតការឯកភាពគ្នាលើផលប៉ះពាល់នៃបច្ចេកវិទ្យាសម្រាប់ទាំងបច្ចុប្បន្ន និងទៅអនាគត"។
Hema Sridhar អតីតប្រធានទីប្រឹក្សាវិទ្យាសាស្ត្រ ក្រសួងការពារជាតិនូវែលហ្សេឡង់ និងបច្ចុប្បន្នជាអ្នកស្រាវជ្រាវជាន់ខ្ពស់នៃសាកលវិទ្យាល័យ Auckland ប្រទេសនូវែលសេឡង់។
ចាប់តាំងពីខែតុលា ឆ្នាំ 2023 មក មានគំនិតផ្តួចផ្តើមជាតិ និងពហុភាគីសំខាន់ៗជាច្រើន ដោយមានការពិចារណាបន្ថែមអំពីក្រមសីលធម៌ និងសុវត្ថិភាពរបស់ AI ។ ផលប៉ះពាល់នៃ AI លើភាពសុចរិតនៃប្រព័ន្ធសំខាន់ៗមួយចំនួនរបស់យើង រួមទាំងហិរញ្ញវត្ថុ រដ្ឋាភិបាល ច្បាប់ និងការអប់រំ ព្រមទាំងប្រព័ន្ធចំណេះដឹងផ្សេងៗគ្នា (រួមទាំងចំណេះដឹងផ្នែកវិទ្យាសាស្ត្រ និងជនជាតិដើមភាគតិច) គឺមានការព្រួយបារម្ភកាន់តែខ្លាំងឡើង។ ក្របខ័ណ្ឌនេះឆ្លុះបញ្ចាំងបន្ថែមទៀតអំពីទិដ្ឋភាពទាំងនេះ។
មតិកែលម្អដែលទទួលបានពីសមាជិក ISC និងសហគមន៍បង្កើតគោលនយោបាយអន្តរជាតិរហូតមកដល់បច្ចុប្បន្នត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងកំណែកែសម្រួលនៃក្របខ័ណ្ឌវិភាគ ដែលឥឡូវនេះត្រូវបានចេញផ្សាយជាការណែនាំដល់អ្នកបង្កើតគោលនយោបាយ។
មគ្គុទ្ទេសក៍សម្រាប់អ្នកបង្កើតគោលនយោបាយ៖ ការវាយតម្លៃបច្ចេកវិទ្យាដែលកំពុងអភិវឌ្ឍយ៉ាងឆាប់រហ័ស រួមទាំង AI គំរូភាសាធំៗ និងលើសពីនេះទៀត
ឯកសារពិភាក្សានេះផ្តល់នូវគ្រោងនៃក្របខ័ណ្ឌដំបូងដើម្បីជូនដំណឹងដល់ការពិភាក្សាជាសកល និងថ្នាក់ជាតិជាច្រើនដែលធ្វើឡើងទាក់ទងនឹង AI ។
ទាញយកក្របខ័ណ្ឌសម្រាប់ប្រើប្រាស់ក្នុងស្ថាប័នរបស់អ្នក។
នៅទីនេះយើងផ្តល់ឧបករណ៍ក្របខ័ណ្ឌជាសន្លឹក Excel ដែលអាចកែសម្រួលបានសម្រាប់ប្រើក្នុងស្ថាប័នរបស់អ្នក។ ប្រសិនបើអ្នកចូលចិត្តទម្រង់ប្រភពបើកចំហ សូមទាក់ទង [អ៊ីមែលការពារ].
សេចក្តីផ្តើម
បច្ចេកវិទ្យាដែលកំពុងរីកចម្រើនយ៉ាងឆាប់រហ័សបង្ហាញពីបញ្ហាប្រឈមនៅពេលនិយាយអំពីការប្រើប្រាស់ អភិបាលកិច្ច និងបទប្បញ្ញត្តិសក្តានុពល។ គោលនយោបាយដែលកំពុងបន្ត និងការជជែកដេញដោលជាសាធារណៈលើបញ្ញាសិប្បនិមិត្ត (AI) និងការប្រើប្រាស់របស់វាបាននាំបញ្ហាទាំងនេះទៅជាការផ្តោតអារម្មណ៍ខ្លាំង។ គោលការណ៍ទូលំទូលាយសម្រាប់ AI ត្រូវបានប្រកាសដោយអង្គការយូណេស្កូ អង្គការ OECD អង្គការសហប្រជាជាតិ និងផ្សេងៗទៀត រួមទាំងសេចក្តីប្រកាស Bletchley របស់ចក្រភពអង់គ្លេស ហើយមានការប៉ុនប៉ងតាមយុត្តាធិការដែលកំពុងលេចឡើងក្នុងបទប្បញ្ញត្តិនៃទិដ្ឋភាពនៃបច្ចេកវិទ្យាតាមរយៈឧទាហរណ៍ សហភាពអឺរ៉ុប (EU) AI ច្បាប់ ឬបទបញ្ជាប្រតិបត្តិ AI របស់សហរដ្ឋអាមេរិកថ្មីៗនេះ។
ខណៈពេលដែលការប្រើប្រាស់ AI ត្រូវបានពិភាក្សាយ៉ាងយូរនៅក្នុងវិស័យទាំងនេះ និងវេទិកាផ្សេងទៀត ទូទាំងការបែងចែកភូមិសាស្ត្រនយោបាយ និងនៅក្នុងប្រទេសនៅគ្រប់កម្រិតប្រាក់ចំណូល វានៅតែមានគម្លាតរវាងការអភិវឌ្ឍនៃគោលការណ៍កម្រិតខ្ពស់ និងការបញ្ចូលទៅក្នុងការអនុវត្តតាមរយៈបទប្បញ្ញត្តិ គោលនយោបាយ អភិបាលកិច្ច។ ឬវិធីសាស្រ្តគ្រប់គ្រង។ ផ្លូវពីគោលការណ៍ទៅការអនុវត្តត្រូវបានកំណត់យ៉ាងលំបាក ប៉ុន្តែដោយសារធម្មជាតិ និងនិន្នាការនៃការអភិវឌ្ឍន៍ និងកម្មវិធី AI ភាពចម្រុះនៃចំណាប់អារម្មណ៍ និងជួរនៃកម្មវិធីដែលអាចធ្វើបាន វិធីសាស្រ្តណាមួយមិនអាចមានលក្ខណៈទូទៅ ឬតាមវេជ្ជបញ្ជានោះទេ។
សម្រាប់ហេតុផលទាំងនេះ សហគមន៍វិទ្យាសាស្ត្រក្រៅរដ្ឋាភិបាលនៅតែបន្តដើរតួនាទីជាក់លាក់មួយ។ ក្រុមប្រឹក្សាវិទ្យាសាស្ត្រអន្តរជាតិ (ISC) - ជាមួយនឹងសមាជិកភាពពហុនិយមរបស់ខ្លួនពីវិទ្យាសាស្ត្រសង្គម និងធម្មជាតិ បានចេញផ្សាយឯកសារពិភាក្សាមួយក្នុងខែតុលា ឆ្នាំ 2023 ដែលបង្ហាញពីក្របខណ្ឌវិភាគបឋមដែលគិតគូរពីហានិភ័យ អត្ថប្រយោជន៍ ការគំរាមកំហែង និងឱកាសដែលទាក់ទងនឹងបច្ចេកវិទ្យាឌីជីថលដែលមានការផ្លាស់ប្តូរយ៉ាងឆាប់រហ័ស។ ខណៈពេលដែលវាត្រូវបានបង្កើតឡើងដើម្បីពិចារណាលើ AI វាជាបច្ចេកវិទ្យាដែលមិនគួរឱ្យជឿ ហើយអាចត្រូវបានអនុវត្តចំពោះបច្ចេកវិទ្យាដែលកំពុងរីកចម្រើន និងរំខានជាច្រើនដូចជា ជីវវិទ្យាសំយោគ និង quantum ។ ឯកសារពិភាក្សានោះបានអញ្ជើញមតិកែលម្អពីអ្នកសិក្សា និងអ្នកបង្កើតគោលនយោបាយ។ មតិកែលម្អដ៏លើសលប់បានធ្វើឱ្យមានការវិភាគចាំបាច់ និងឈរជាវិធីសាស្រ្តដ៏មានតម្លៃក្នុងការដោះស្រាយបច្ចេកវិទ្យាដែលកំពុងរីកចម្រើនដូចជា AI ជាដើម។
គោលបំណងនៃក្របខ័ណ្ឌនេះគឺដើម្បីផ្តល់ឧបករណ៍មួយដើម្បីជូនដំណឹងដល់អ្នកពាក់ព័ន្ធទាំងអស់ - រួមទាំងរដ្ឋាភិបាល អ្នកចរចាពាណិជ្ជកម្ម និយតករ សង្គមស៊ីវិល និងឧស្សាហកម្ម - អំពីការវិវត្តន៍នៃបច្ចេកវិទ្យាទាំងនេះ ដើម្បីជួយពួកគេកំណត់ពីរបៀបដែលពួកគេអាចពិចារណាពីផលប៉ះពាល់ វិជ្ជមាន ឬអវិជ្ជមាននៃ បច្ចេកវិទ្យាខ្លួនវា និងជាពិសេសកម្មវិធីពិសេសរបស់វា។ ក្របខណ្ឌវិភាគនេះត្រូវបានបង្កើតឡើងដោយឯករាជ្យពីផលប្រយោជន៍របស់រដ្ឋាភិបាល និងឧស្សាហកម្ម។ វាមានលក្ខណៈពហុនិយមជាអតិបរមានៅក្នុងទស្សនវិស័យរបស់វា ដែលគ្របដណ្តប់គ្រប់ទិដ្ឋភាពទាំងអស់នៃបច្ចេកវិទ្យា និងផលប៉ះពាល់របស់វាដោយផ្អែកលើការពិគ្រោះយោបល់ និងមតិកែលម្អយ៉ាងទូលំទូលាយ។
ឯកសារពិភាក្សានេះសម្រាប់អ្នកបង្កើតគោលនយោបាយមិនមានបំណងដើម្បីផ្តល់របបបទប្បញ្ញត្តិទេ ប៉ុន្តែជាការផ្តល់យោបល់ដល់ក្របខ័ណ្ឌវិភាគដែលសម្របខ្លួន និងវិវត្តដែលអាចគាំទ្រដល់ដំណើរការវាយតម្លៃ និងបទប្បញ្ញត្តិដែលអាចត្រូវបានបង្កើតឡើងដោយភាគីពាក់ព័ន្ធ រួមទាំងរដ្ឋាភិបាល និងប្រព័ន្ធពហុភាគី។
ក្នុងនាមជាអ្នកធ្វើការសម្រេចចិត្តនៅទូទាំងពិភពលោក និងថ្នាក់ជាតិពិចារណាលើការកំណត់គោលនយោបាយសមស្រប និងគន្លឹះដើម្បីធ្វើសមតុល្យហានិភ័យ និងរង្វាន់នៃបច្ចេកវិទ្យាថ្មីដូចជា AI នោះ ក្របខណ្ឌវិភាគត្រូវបានបម្រុងទុកជាឧបករណ៍បំពេញបន្ថែមដើម្បីធានាថាការរួមបញ្ចូលពេញលេញនៃផលប៉ះពាល់សក្តានុពលត្រូវបានឆ្លុះបញ្ចាំងឱ្យបានគ្រប់គ្រាន់។
ផ្ទៃខាងក្រោយ៖ ហេតុអ្វីបានជាក្របខណ្ឌវិភាគ?
ការលេចឡើងយ៉ាងឆាប់រហ័សនៃបច្ចេកវិទ្យាជាមួយនឹងភាពស្មុគស្មាញ និងផលប៉ះពាល់នៃ AI កំពុងជំរុញឱ្យមានការអះអាងជាច្រើនអំពីអត្ថប្រយោជន៍ដ៏អស្ចារ្យ។ ទោះជាយ៉ាងណាក៏ដោយ វាក៏បង្កឱ្យមានការភ័យខ្លាចនៃហានិភ័យសំខាន់ៗផងដែរ ពីបុគ្គលទៅកម្រិតភូមិសាស្ត្រ។1 ការពិភាក្សាជាច្រើនរហូតមកដល់បច្ចុប្បន្នត្រូវបានពិចារណាក្នុងន័យគោលពីរ ខណៈដែលទស្សនៈដែលបានបង្ហាញជាសាធារណៈមានទំនោរនឹងប្រព្រឹត្តទៅនៅចុងបំផុតនៃវិសាលគមនេះ។ ការទាមទារដែលធ្វើឡើងសម្រាប់ ឬប្រឆាំងនឹង AI ជាញឹកញាប់មានអព្យាក្រឹត ហើយផ្តល់លក្ខណៈនៃបច្ចេកវិទ្យា ពិបាកក្នុងការវាយតម្លៃ។
វិធីសាស្រ្តជាក់ស្តែងបន្ថែមទៀតគឺចាំបាច់ដែលអ៊ីពែបូលត្រូវបានជំនួសដោយការក្រិតតាមខ្នាត និងការវាយតម្លៃជាក្រឡាបន្ថែមទៀត។ បច្ចេកវិទ្យា AI នឹងបន្តវិវឌ្ឍ ហើយប្រវតិ្តសាស្រ្តបង្ហាញថា ស្ទើរតែគ្រប់បច្ចេកវិទ្យាទាំងអស់មានទាំងការប្រើប្រាស់ដែលមានប្រយោជន៍ និងគ្រោះថ្នាក់។ ដូច្នេះ សំណួរគឺ៖ តើយើងអាចសម្រេចបានលទ្ធផលជាប្រយោជន៍ពីបច្ចេកវិទ្យានេះដោយរបៀបណា ខណៈពេលដែលកាត់បន្ថយហានិភ័យនៃផលវិបាកដែលបង្កគ្រោះថ្នាក់ ដែលមួយចំនួនអាចមាននៅក្នុងទំហំ?
អនាគតគឺតែងតែមិនប្រាកដប្រជា ប៉ុន្តែមានសំឡេងដែលគួរឱ្យទុកចិត្ត និងអ្នកជំនាញគ្រប់គ្រាន់ទាក់ទងនឹង AI និង AI ជំនាន់ដើម ដើម្បីលើកទឹកចិត្តឱ្យមានវិធីសាស្រ្តប្រុងប្រយ័ត្ន។ លើសពីនេះ វិធីសាស្រ្តប្រព័ន្ធគឺចាំបាច់ ដោយសារ AI គឺជាថ្នាក់នៃបច្ចេកវិទ្យាដែលមានការប្រើប្រាស់ និងកម្មវិធីយ៉ាងទូលំទូលាយដោយអ្នកប្រើប្រាស់ច្រើនប្រភេទ។ នេះមានន័យថាបរិបទពេញលេញត្រូវតែត្រូវបានពិចារណានៅពេលពិចារណាពីផលប៉ះពាល់នៃការប្រើប្រាស់ AI ណាមួយសម្រាប់បុគ្គល ជីវិតសង្គម ជីវិតពលរដ្ឋ ជីវិតសង្គម និងក្នុងបរិបទសកល។
មិនដូចបច្ចេកវិទ្យាផ្សេងទៀតទេ សម្រាប់បច្ចេកវិទ្យាឌីជីថល និងបច្ចេកវិទ្យាដែលពាក់ព័ន្ធ ពេលវេលារវាងការអភិវឌ្ឍន៍ ការចេញផ្សាយ និងកម្មវិធីគឺខ្លីបំផុត ដែលភាគច្រើនត្រូវបានជំរុញដោយផលប្រយោជន៍របស់ក្រុមហ៊ុនផលិតកម្ម ឬភ្នាក់ងារ។ ដោយធម្មជាតិរបស់វា – ហើយត្រូវបានផ្តល់ឱ្យវាផ្អែកលើឆ្អឹងខ្នងឌីជីថល – AI នឹងមានកម្មវិធីដែលរីករាលដាលយ៉ាងឆាប់រហ័ស ដូចដែលបានឃើញរួចមកហើយជាមួយនឹងការអភិវឌ្ឍន៍នៃគំរូភាសាធំៗ។ ជាលទ្ធផល ទ្រព្យសម្បត្តិមួយចំនួនអាចលេចចេញជារូបរាងបាន លុះត្រាតែមានការចេញផ្សាយ មានន័យថា មានហានិភ័យនៃផលវិបាកដែលមិនបានមើលឃើញទុកជាមុន ទាំងអំពើទុច្ចរិត និងសប្បុរស។
វិមាត្រនៃតម្លៃសង្គមសំខាន់ៗ ជាពិសេសនៅទូទាំងតំបន់ និងវប្បធម៌ផ្សេងៗ នឹងមានឥទ្ធិពលលើរបៀបដែលការប្រើប្រាស់ណាមួយត្រូវបានយល់ឃើញ និងទទួលយក។ លើសពីនេះ ផលប្រយោជន៍ភូមិសាស្ត្រកំពុងគ្របដណ្តប់លើការពិភាក្សារួចហើយ ដោយផលប្រយោជន៍អធិបតេយ្យភាព និងពហុភាគីបានប្រសព្វគ្នាជាបន្តបន្ទាប់ ហើយដូច្នេះជំរុញឱ្យមានការប្រកួតប្រជែង និងការបែងចែក។
រហូតមកដល់បច្ចុប្បន្ន បទប្បញ្ញត្តិភាគច្រើននៃបច្ចេកវិទ្យានិម្មិតត្រូវបានគេមើលឃើញយ៉ាងទូលំទូលាយតាមរយៈកញ្ចក់នៃ 'គោលការណ៍' និងការអនុលោមតាមស្ម័គ្រចិត្ត ទោះបីជាមានច្បាប់ EU AI ក៏ដោយ។2 ហើយស្រដៀងគ្នានេះដែរ យើងកំពុងមើលឃើញការផ្លាស់ប្តូរទៅបទប្បញ្ញត្តិដែលអាចអនុវត្តបានកាន់តែច្រើន ប៉ុន្តែមានលក្ខណៈតូចចង្អៀតបន្តិច។ ការបង្កើតអភិបាលកិច្ចបច្ចេកវិទ្យាសកល ឬថ្នាក់ជាតិប្រកបដោយប្រសិទ្ធភាព និង/ឬប្រព័ន្ធនិយតកម្មនៅតែជាបញ្ហាប្រឈម ហើយមិនមានដំណោះស្រាយជាក់ស្តែងទេ។ ស្រទាប់ជាច្រើននៃការសម្រេចចិត្តដែលផ្តល់ព័ត៌មានអំពីហានិភ័យនឹងត្រូវការជាចាំបាច់នៅតាមខ្សែសង្វាក់ ពីអ្នកបង្កើតរហូតដល់អ្នកផលិត អ្នកប្រើប្រាស់ រហូតដល់រដ្ឋាភិបាល និងប្រព័ន្ធពហុភាគី។
ខណៈពេលដែលគោលការណ៍កម្រិតខ្ពស់ត្រូវបានប្រកាសឱ្យប្រើដោយអង្គការយូណេស្កូ អង្គការ OECD គណៈកម្មការអឺរ៉ុប និងអង្គការសហប្រជាជាតិ ក្នុងចំណោមអ្នកដទៃទៀត និងការពិភាក្សាកម្រិតខ្ពស់ជាច្រើននៅតែបន្តទាក់ទងនឹងបញ្ហាអភិបាលកិច្ច បទប្បញ្ញត្តិ ក្រមសីលធម៌ និងសុវត្ថិភាពដែលមានសក្តានុពលនោះ មានគម្លាតធំរវាងបញ្ហាទាំងនេះ។ គោលការណ៍ និងការគ្រប់គ្រង ឬក្របខណ្ឌច្បាប់។ នេះចាំបាច់ត្រូវដោះស្រាយ។
ជាចំណុចចាប់ផ្តើម ISC ពិចារណាលើការបង្កើតនិក្ខេបបទនៃការពិចារណាដែលអ្នកអភិវឌ្ឍន៍ និយតករ ទីប្រឹក្សាគោលនយោបាយ អ្នកប្រើប្រាស់ ឬអ្នកធ្វើការសម្រេចចិត្តអាចយោងបាន។ ដោយមើលឃើញពីផលប៉ះពាល់យ៉ាងទូលំទូលាយនៃបច្ចេកវិទ្យាទាំងនេះ និក្ខេបបទបែបនេះត្រូវតែគិតគូរពីចំនួនសរុបនៃផលប៉ះពាល់ជាជាងការផ្តោតអារម្មណ៍ចង្អៀត។ ការបែកខ្ញែកជាសកលកំពុងកើនឡើងដោយសារតែឥទ្ធិពលនៃផលប្រយោជន៍ភូមិសាស្ត្រលើការសម្រេចចិត្ត ហើយដោយសារភាពបន្ទាន់នៃបច្ចេកវិទ្យានេះ វាចាំបាច់សម្រាប់សំឡេងឯករាជ្យ និងអព្យាក្រឹត ដើម្បីបន្តធ្វើជាជើងឯកនូវវិធីសាស្រ្តបង្រួបបង្រួម និងរួមបញ្ចូល។
1) Hindustan Times ។ 2023. G20 ត្រូវតែបង្កើតក្រុមអន្តរជាតិស្តីពីការផ្លាស់ប្តូរបច្ចេកវិទ្យា។
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) ច្បាប់ស៊ើបការណ៍សម្ងាត់របស់សហភាពអឺរ៉ុប។ 2023. https://artificialintelligenceact.eu
ការអភិវឌ្ឍនៃគ្រោងការណ៍វិភាគ
អាយអេសស៊ី គឺជាអង្គការក្រៅរដ្ឋាភិបាលសកលដំបូងដែលរួមបញ្ចូលវិទ្យាសាស្ត្រធម្មជាតិ និងសង្គម។ ការឈានទៅដល់ជាសាកល និងវិន័យរបស់វាមានន័យថា វាត្រូវបានដាក់យ៉ាងល្អដើម្បីបង្កើតដំបូន្មានឯករាជ្យ និងពាក់ព័ន្ធជាសាកល ដើម្បីជូនដំណឹងអំពីជម្រើសដ៏ស្មុគស្មាញនាពេលខាងមុខ ជាពិសេសដោយសារតែសំឡេងបច្ចុប្បន្ននៅក្នុងវេទិកានេះភាគច្រើនមកពីឧស្សាហកម្ម ឬពីសហគមន៍នយោបាយ និងសហគមន៍នៃមហាអំណាចបច្ចេកវិទ្យាធំៗ។
បន្ទាប់ពីរយៈពេលនៃការពិភាក្សាយ៉ាងទូលំទូលាយ ដែលរួមបញ្ចូលការពិចារណាលើដំណើរការវាយតម្លៃក្រៅរដ្ឋាភិបាល ISC បានសន្និដ្ឋានថាការរួមចំណែកដ៏មានប្រយោជន៍បំផុតរបស់វាគឺដើម្បីបង្កើតក្របខ័ណ្ឌវិភាគដែលមានលក្ខណៈប្រែប្រួលដែលអាចប្រើជាមូលដ្ឋានសម្រាប់ការពិភាក្សា និងការសម្រេចចិត្តដោយមនុស្សទាំងអស់។ ភាគីពាក់ព័ន្ធ រួមទាំងក្នុងអំឡុងពេលដំណើរការវាយតម្លៃផ្លូវការណាមួយដែលលេចឡើង។
ក្របខណ្ឌវិភាគបឋម ដែលត្រូវបានចេញផ្សាយសម្រាប់ការពិភាក្សា និងមតិកែលម្អក្នុងខែតុលា ឆ្នាំ 2023 បានយកទម្រង់នៃបញ្ជីត្រួតពិនិត្យដែលត្រូវបានរចនាឡើងសម្រាប់ប្រើប្រាស់ដោយទាំងស្ថាប័នរដ្ឋាភិបាល និងមិនមែនរដ្ឋាភិបាល។ ក្របខ័ណ្ឌនេះបានកំណត់ និងស្វែងយល់ពីសក្តានុពលនៃបច្ចេកវិទ្យាដូចជា AI និងឧបករណ៍ចម្លងរបស់វាតាមរយៈកញ្ចក់ធំទូលាយដែលគ្របដណ្តប់លើសុខុមាលភាពមនុស្ស និងសង្គម ព្រមទាំងកត្តាខាងក្រៅដូចជាសេដ្ឋកិច្ច នយោបាយ បរិស្ថាន និងសន្តិសុខ។ ទិដ្ឋភាពមួយចំនួននៃបញ្ជីត្រួតពិនិត្យអាចមានភាពពាក់ព័ន្ធជាងផ្នែកផ្សេងទៀត អាស្រ័យលើបរិបទ ប៉ុន្តែការសម្រេចចិត្តកាន់តែប្រសើរឡើងហាក់ដូចជាទំនងជាប្រសិនបើដែនទាំងអស់ត្រូវបានពិចារណា បើទោះបីជាមួយចំនួនអាចត្រូវបានកំណត់យ៉ាងឆាប់រហ័សថាមិនពាក់ព័ន្ធក្នុងករណីពិសេសក៏ដោយ។ នេះគឺជាតម្លៃដើមនៃវិធីសាស្រ្តបញ្ជីត្រួតពិនិត្យ។
ក្របខ័ណ្ឌបឋមបានមកពីការងារ និងការគិតពីមុន រួមទាំងរបាយការណ៍របស់បណ្តាញអន្តរជាតិសម្រាប់ដំបូន្មានវិទ្យាសាស្ត្ររដ្ឋាភិបាល (INGSA) ស្តីពីសុខុមាលភាពឌីជីថល 3 និងក្របខ័ណ្ឌ OECD សម្រាប់ចំណាត់ថ្នាក់នៃប្រព័ន្ធ AI 4 ដើម្បីបង្ហាញពីចំនួនសរុបនៃឱកាស ហានិភ័យ និងផលប៉ះពាល់សក្តានុពល។ នៃ AI ។ ផលិតផលពីមុនទាំងនេះត្រូវបានដាក់កម្រិតបន្ថែមទៀតនៅក្នុងចេតនារបស់ពួកគេដែលផ្តល់ពេលវេលា និងបរិបទរបស់ពួកគេ។ វាមានតំរូវការសម្រាប់ក្របខណ្ឌដែលបង្ហាញពីបញ្ហាពេញលេញទាំងក្នុងរយៈពេលខ្លី និងរយៈពេលវែង។
ចាប់តាំងពីការចេញផ្សាយរបស់ខ្លួន ឯកសារពិភាក្សាបានទទួលការគាំទ្រយ៉ាងសំខាន់ពីអ្នកជំនាញ និងអ្នកបង្កើតគោលនយោបាយជាច្រើន។ មនុស្សជាច្រើនបានគាំទ្រជាពិសេសចំពោះអនុសាសន៍ដើម្បីបង្កើតក្របខ័ណ្ឌសម្របខ្លួនដែលអនុញ្ញាតឱ្យមានការពិចារណាដោយចេតនា និងសកម្មអំពីហានិភ័យ និងផលប៉ះពាល់នៃបច្ចេកវិទ្យា ហើយក្នុងការធ្វើដូច្នេះ តែងតែគិតគូរពីទំហំសរុបពីបុគ្គលទៅសង្គម និងប្រព័ន្ធ។
ការសង្កេតសំខាន់មួយដែលបានធ្វើឡើងតាមរយៈមតិកែលម្អគឺការទទួលស្គាល់ថាផលប៉ះពាល់មួយចំនួនដែលត្រូវបានពិចារណានៅក្នុងក្របខ័ណ្ឌគឺមានលក្ខណៈចម្រុះ និងពង្រីកនៅទូទាំងប្រភេទជាច្រើន។ ជាឧទាហរណ៍ ពត៌មានមិនពិតអាចត្រូវបានពិចារណាពីកញ្ចក់បុគ្គល និងភូមិសាស្ត្រ។ ដូច្នេះ ផលវិបាកនឹងមានលក្ខណៈទូលំទូលាយ។
ជម្រើសដើម្បីរួមបញ្ចូលករណីសិក្សា ឬគំរូដើម្បីសាកល្បងក្របខ័ណ្ឌក៏ត្រូវបានណែនាំផងដែរ។ វាអាចត្រូវបានប្រើដើម្បីបង្កើតគោលការណ៍ណែនាំដើម្បីបង្ហាញពីរបៀបដែលវាអាចត្រូវបានប្រើនៅក្នុងការអនុវត្តក្នុងបរិបទផ្សេងៗគ្នា។ ទោះជាយ៉ាងណាក៏ដោយ នេះនឹងក្លាយជាកិច្ចការសំខាន់មួយ ហើយអាចកំណត់ពីរបៀបដែលក្រុមផ្សេងៗយល់ឃើញពីការប្រើប្រាស់ក្របខ័ណ្ឌនេះ។ វាត្រូវបានធ្វើបានល្អបំផុតដោយអ្នកបង្កើតគោលនយោបាយ ដែលធ្វើការជាមួយអ្នកជំនាញនៅក្នុងយុត្តាធិការ ឬបរិបទជាក់លាក់។
ចាប់តាំងពីខែតុលា ឆ្នាំ 2023 មក មានគំនិតផ្តួចផ្តើមជាតិ និងពហុភាគីសំខាន់ៗជាច្រើន ដោយមានការពិចារណាបន្ថែមអំពីក្រមសីលធម៌ និងសុវត្ថិភាពរបស់ AI ។ ផលប៉ះពាល់នៃ AI លើភាពសុចរិតនៃប្រព័ន្ធសំខាន់ៗមួយចំនួនរបស់យើង រួមទាំងហិរញ្ញវត្ថុ រដ្ឋាភិបាល ច្បាប់ និងការអប់រំ ព្រមទាំងប្រព័ន្ធចំណេះដឹងផ្សេងៗគ្នា (រួមទាំងចំណេះដឹងផ្នែកវិទ្យាសាស្ត្រ និងជនជាតិដើមភាគតិច) គឺមានការព្រួយបារម្ភកាន់តែខ្លាំងឡើង។ ក្របខណ្ឌដែលបានកែប្រែនេះឆ្លុះបញ្ចាំងបន្ថែមទៀតអំពីទិដ្ឋភាពទាំងនេះ។
មតិកែលម្អដែលទទួលបានរហូតមកដល់បច្ចុប្បន្នត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងកំណែដែលបានកែសម្រួលនៃក្របខ័ណ្ឌវិភាគ ដែលឥឡូវនេះត្រូវបានចេញផ្សាយជាការណែនាំដល់អ្នកបង្កើតគោលនយោបាយ។
ខណៈពេលដែលក្របខ័ណ្ឌត្រូវបានបង្ហាញនៅក្នុងបរិបទនៃ AI និងបច្ចេកវិទ្យាដែលពាក់ព័ន្ធ វាអាចផ្ទេរភ្លាមៗទៅការពិចារណានៃបច្ចេកវិទ្យាដែលកំពុងរីកចម្រើនយ៉ាងឆាប់រហ័សផ្សេងទៀតដូចជា quantum និងជីវវិទ្យាសំយោគ។
3) Gluckman, P. and Allen, K. 2018. ការយល់ដឹងអំពីសុខុមាលភាពនៅក្នុងបរិបទនៃការផ្លាស់ប្តូរឌីជីថលយ៉ាងឆាប់រហ័ស និងពាក់ព័ន្ធ។ INGSA
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
៤) OECD ។ 4. ក្របខណ្ឌ OECD សម្រាប់ការចាត់ថ្នាក់នៃប្រព័ន្ធ AI ។ OECD Digital Economy Papers, លេខ ៣២៣,#។ ប៉ារីស ការបោះពុម្ព OECD ។
https://oecd.ai/en/classificatio
ក្របខ័ណ្ឌ
តារាងខាងក្រោមបង្ហាញពីវិមាត្រនៃក្របខ័ណ្ឌវិភាគដែលដាក់។ ឧទាហរណ៍ត្រូវបានផ្តល់ជូនដើម្បីបង្ហាញពីមូលហេតុដែលដែននីមួយៗអាចមានបញ្ហា។ នៅក្នុងបរិបទ ក្របខ័ណ្ឌនឹងតម្រូវឱ្យមានការពង្រីកដែលពាក់ព័ន្ធតាមបរិបទ។ វាក៏សំខាន់ផងដែរក្នុងការបែងចែករវាងបញ្ហាទូទៅដែលកើតឡើងកំឡុងពេលអភិវឌ្ឍវេទិកា និងបញ្ហាដែលអាចនឹងលេចឡើងក្នុងអំឡុងពេលកម្មវិធីជាក់លាក់។ គ្មានការពិចារណាណាមួយដែលរួមបញ្ចូលនៅទីនេះ គួរតែត្រូវបានចាត់ទុកជាអាទិភាព ហើយដូច្នេះ ទាំងអស់គួរតែត្រូវបានពិនិត្យ។
បញ្ហាត្រូវបានចាត់ជាក្រុមយ៉ាងទូលំទូលាយទៅជាប្រភេទដូចបានរៀបរាប់ខាងក្រោម៖
តារាងរៀបរាប់លម្អិតអំពីទំហំដែលប្រហែលជាត្រូវយកមកពិចារណានៅពេលវាយតម្លៃបច្ចេកវិទ្យាថ្មី។
🔴 INGSA ។ 2018. ការយល់ដឹងអំពីសុខុមាលភាពនៅក្នុងបរិបទនៃការផ្លាស់ប្តូរឌីជីថលយ៉ាងឆាប់រហ័ស និងពាក់ព័ន្ធ។
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
🟢 អ្នកពណ៌នាថ្មី (ប្រភពតាមរយៈការពិគ្រោះយោបល់ និងមតិកែលម្អ និងការពិនិត្យអក្សរសិល្ប៍)
🟡 ក្របខ័ណ្ឌ OECD សម្រាប់ចំណាត់ថ្នាក់នៃប្រព័ន្ធ AI៖ ឧបករណ៍សម្រាប់គោលនយោបាយ AI ប្រកបដោយប្រសិទ្ធភាព។
https://oecd.ai/en/classification
លក្ខណៈវិនិច្ឆ័យ | ឧទាហរណ៍នៃរបៀបដែលនេះអាចនឹងត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការវិភាគ |
🟡សមត្ថភាព AI របស់អ្នកប្រើប្រាស់ | តើអ្នកប្រើទំនងជាអ្នកប្រើដែលនឹងធ្វើអន្តរកម្មជាមួយប្រព័ន្ធមានសមត្ថភាព និងដឹងអំពីលក្ខណៈសម្បត្តិរបស់ប្រព័ន្ធកម្រិតណា? តើពួកគេនឹងត្រូវបានផ្តល់ព័ត៌មានពាក់ព័ន្ធនិងការប្រុងប្រយ័ត្នរបស់អ្នកប្រើដោយរបៀបណា? |
🟡 ភាគីពាក់ព័ន្ធដែលរងផលប៉ះពាល់ | តើអ្នកណាខ្លះជាភាគីពាក់ព័ន្ធសំខាន់ៗ ដែលនឹងត្រូវបានរងផលប៉ះពាល់ដោយប្រព័ន្ធ (បុគ្គល សហគមន៍ ជនងាយរងគ្រោះ កម្មករតាមវិស័យ កុមារ អ្នកបង្កើតគោលនយោបាយ អ្នកជំនាញ។ល។)? |
🟡 ជម្រើស | តើអ្នកប្រើបានផ្តល់នូវឱកាសក្នុងការដកខ្លួនចេញពីប្រព័ន្ធ ឬតើពួកគេត្រូវបានផ្តល់ឱកាសក្នុងការប្រជែង ឬកែតម្រូវលទ្ធផលឬទេ? |
🟡ហានិភ័យដល់សិទ្ធិមនុស្ស និងតម្លៃប្រជាធិបតេយ្យ | តើប្រព័ន្ធនេះមានផលប៉ះពាល់ជាមូលដ្ឋានលើសិទ្ធិមនុស្ស រួមទាំងប៉ុន្តែមិនកំណត់ចំពោះឯកជនភាព សេរីភាពនៃការបញ្ចេញមតិ យុត្តិធម៌ ការមិនរើសអើងជាដើម។ |
🟡ផលប៉ះពាល់ដែលអាចកើតមានលើសុខុមាលភាពរបស់មនុស្ស | តើតំបន់ប៉ះពាល់ដល់ប្រព័ន្ធទាក់ទងនឹងសុខុមាលភាពរបស់អ្នកប្រើប្រាស់ម្នាក់ៗ (គុណភាពការងារ ការអប់រំ អន្តរកម្មសង្គម សុខភាពផ្លូវចិត្ត អត្តសញ្ញាណ បរិស្ថាន។ល។)? |
🟡 សក្តានុពលសម្រាប់ការផ្លាស់ទីលំនៅពលកម្មមនុស្ស | តើមានសក្តានុពលសម្រាប់ប្រព័ន្ធដើម្បីធ្វើស្វ័យប្រវត្តិកម្មភារកិច្ច ឬមុខងារដែលត្រូវបានប្រតិបត្តិដោយមនុស្សដែរឬទេ? បើដូច្នេះ តើមានផលវិបាកអ្វីខ្លះ? |
🟡 សក្តានុពលសម្រាប់អត្តសញ្ញាណ តម្លៃ ឬការរៀបចំចំណេះដឹង | តើប្រព័ន្ធត្រូវបានរចនាឡើង ឬមានសក្តានុពលអាចរៀបចំអត្តសញ្ញាណរបស់អ្នកប្រើប្រាស់ ឬ កំណត់តម្លៃ ឬផ្សព្វផ្សាយព័ត៌មានមិនពិត? |
🔴 ឱកាសសម្រាប់ការបញ្ចេញមតិដោយខ្លួនឯង និងការអនុវត្តជាក់ស្តែង | តើមានសក្ដានុពលសម្រាប់សិល្បៈនិងការសង្ស័យលើខ្លួនឯងទេ? តើមានសក្តានុពលសម្រាប់ការមិនពិតឬ ការទាមទារជំនាញដែលមិនអាចផ្ទៀងផ្ទាត់បាន? |
🔴 វិធានការនៃតម្លៃខ្លួនឯង | តើមានសម្ពាធក្នុងការបង្ហាញខ្លួនឯងដែលមានឧត្តមគតិទេ? ស្វ័យប្រវត្តិកម្មអាចជំនួសអារម្មណ៍មួយ។ នៃការបំពេញផ្ទាល់ខ្លួន? តើមានសម្ពាធក្នុងការប្រកួតប្រជែងជាមួយប្រព័ន្ធនៅក្នុង កន្លែងធ្វើការ? តើកេរ្តិ៍ឈ្មោះបុគ្គលពិបាកការពារប្រឆាំងនឹងព័ត៌មានមិនពិតមែនទេ? |
🔴 ភាពឯកជន | តើមានទំនួលខុសត្រូវសម្រាប់ការការពារឯកជនភាព ហើយតើមានដែរឬទេ? ការសន្មត់ត្រូវបានធ្វើឡើងអំពីរបៀបដែលទិន្នន័យផ្ទាល់ខ្លួនត្រូវបានប្រើប្រាស់? |
🔴ស្វ័យភាព | តើប្រព័ន្ធ AI អាចប៉ះពាល់ដល់ស្វ័យភាពរបស់មនុស្សដោយបង្កើតការពឹងផ្អែកលើសដោយ អ្នកប្រើប្រាស់ចុងក្រោយ? |
🔴ការអភិវឌ្ឍន៍មនុស្ស | តើមានផលប៉ះពាល់លើការទទួលបានជំនាញសំខាន់ៗសម្រាប់ការអភិវឌ្ឍន៍មនុស្សដែរឬទេ ដូចជា មុខងារប្រតិបត្តិ ឬជំនាញអន្តរបុគ្គល ឬការផ្លាស់ប្តូរពេលវេលាដែលប៉ះពាល់ដល់ការយកចិត្តទុកដាក់ ការសិក្សា ការអភិវឌ្ឍន៍បុគ្គលិកលក្ខណៈ កង្វល់សុខភាពផ្លូវចិត្តជាដើម។ |
🔴 ការថែទាំសុខភាពផ្ទាល់ខ្លួន | តើមានការអះអាងពីការធ្វើរោគវិនិច្ឆ័យដោយខ្លួនឯង ឬដំណោះស្រាយថែទាំសុខភាពផ្ទាល់ខ្លួនទេ? បើដូចនេះ, តើពួកគេមានសុពលភាពតាមស្តង់ដារបទប្បញ្ញត្តិទេ? |
🔴សុខភាពផ្លូវចិត្ត | តើមានហានិភ័យនៃការកើនឡើងការថប់បារម្ភ ភាពឯកោ ឬបញ្ហាសុខភាពផ្លូវចិត្តផ្សេងទៀត ឬ តើបច្ចេកវិទ្យាអាចជួយសម្រាលផលប៉ះពាល់បែបនេះបានទេ? |
🟢 ការវិវត្តន៍របស់មនុស្ស | គំរូភាសាធំៗ និងបញ្ញាទូទៅសិប្បនិម្មិតអាចផ្លាស់ប្តូរ ដំណើរវិវត្តន៍របស់មនុស្ស? |
🟢អន្តរកម្មមនុស្ស-ម៉ាស៊ីន | តើការប្រើប្រាស់អាចនាំទៅរកភាពគ្មានជំនាញ និងការពឹងផ្អែកលើពេលវេលាសម្រាប់បុគ្គលដែរឬទេ? មាន តើមានផលប៉ះពាល់លើអន្តរកម្មរបស់មនុស្សទេ? |
លក្ខណៈវិនិច្ឆ័យ | ឧទាហរណ៍នៃរបៀបដែលនេះអាចនឹងត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការវិភាគ |
🔴តម្លៃសង្គម | តើប្រព័ន្ធមានការផ្លាស់ប្តូរជាមូលដ្ឋាននៃធម្មជាតិនៃសង្គម បើកដំណើរការធម្មតានៃគំនិតដែលត្រូវបានចាត់ទុកថាប្រឆាំងនឹងសង្គមពីមុន ឬរំលោភលើតម្លៃសង្គមនៃវប្បធម៌ដែលវាត្រូវបានអនុវត្ត? |
🔴អន្តរកម្មសង្គម | តើមានឥទ្ធិពលលើទំនាក់ទំនងរបស់មនុស្សដែលមានអត្ថន័យ រួមទាំងទំនាក់ទំនងផ្លូវអារម្មណ៍ដែរឬទេ? |
🔴សុខភាពប្រជាជន | តើមានសក្ដានុពលសម្រាប់ប្រព័ន្ធក្នុងការជំរុញ ឬបំផ្លាញបំណងសុខភាពប្រជាជនដែរឬទេ? |
🔴 ការបង្ហាញវប្បធម៌ | តើការកើនឡើងនៃការអនុលោមតាមវប្បធម៌ ឬការរើសអើងទំនងជាឬពិបាកដោះស្រាយ? តើការពឹងផ្អែកលើប្រព័ន្ធសម្រាប់ការសម្រេចចិត្តមិនរាប់បញ្ចូល ឬកាត់បន្ថយចំណងទាក់ទងផ្នែកវប្បធម៌នៃសង្គមទេ? |
🔴 ការអប់រំសាធារណៈ | តើមានឥទ្ធិពលលើតួនាទីគ្រូបង្រៀន ឬស្ថាប័នអប់រំដែរឬទេ? តើប្រព័ន្ធនេះសង្កត់ធ្ងន់ ឬកាត់បន្ថយការបែងចែកឌីជីថល និងវិសមភាពក្នុងចំណោមសិស្ស? តើតម្លៃខាងក្នុងនៃចំនេះដឹង ឬការយល់ដឹងដ៏ត្រិះរិះពិចារណា ជឿនលឿន ឬធ្លាក់ចុះ? |
🟢 ការពិតដែលបំភ្លៃ | តើវិធីសាស្ត្រដែលគេប្រើដើម្បីដឹងថាអ្វីដែលពិតនៅតែអាចអនុវត្តបានឬ? តើការយល់ឃើញនៃការពិតត្រូវបានសម្របសម្រួលទេ? |
លក្ខណៈវិនិច្ឆ័យ | ឧទាហរណ៍នៃរបៀបដែលនេះអាចនឹងត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការវិភាគ |
🟡 វិស័យឧស្សាហកម្ម | តើប្រព័ន្ធមួយណាដែលត្រូវដាក់ឱ្យប្រើប្រាស់ក្នុងវិស័យឧស្សាហកម្ម (ហិរញ្ញវត្ថុ កសិកម្ម ការថែទាំសុខភាព ការអប់រំ វិស័យការពារជាតិ។ល។)? |
🟡 គំរូអាជីវកម្ម | តើប្រព័ន្ធនេះត្រូវបានប្រើក្នុងមុខងារអាជីវកម្មមួយណា ហើយក្នុងសមត្ថភាពអ្វី? តើប្រព័ន្ធត្រូវបានប្រើប្រាស់នៅឯណា (ឯកជន សាធារណៈ មិនរកប្រាក់ចំណេញ)? |
🟡 ប៉ះពាល់ដល់សកម្មភាពសំខាន់ៗ | តើការរំខានដល់មុខងារ ឬសកម្មភាពរបស់ប្រព័ន្ធនឹងប៉ះពាល់ដល់សេវាកម្មសំខាន់ៗ ឬហេដ្ឋារចនាសម្ព័ន្ធសំខាន់ៗដែរឬទេ? |
🟡 វិសាលភាពនៃការដាក់ពង្រាយ | តើប្រព័ន្ធត្រូវបានដាក់ពង្រាយយ៉ាងដូចម្តេច (ការប្រើប្រាស់តូចចង្អៀតនៅក្នុងអង្គភាពធៀបនឹងការរីករាលដាលទូទាំងប្រទេស/អន្តរជាតិ)? |
🟡 ភាពចាស់ទុំខាងបច្ចេកទេស | តើប្រព័ន្ធមានភាពចាស់ទុំខាងបច្ចេកទេសយ៉ាងណា? |
🟢 អន្តរប្រតិបត្តិការ | តើទំនងជាមានស៊ីឡូក្នុងប្រទេស ឬជាសាកល ដែលរារាំងពាណិជ្ជកម្មសេរី និងប៉ះពាល់ដល់កិច្ចសហប្រតិបត្តិការជាមួយដៃគូ? |
🟢 អធិបតេយ្យភាពបច្ចេកវិទ្យា | តើបំណងប្រាថ្នាសម្រាប់ឥរិយាបទជំរុញអធិបតេយ្យភាពបច្ចេកវិទ្យា រួមទាំងការគ្រប់គ្រងលើខ្សែសង្វាក់ផ្គត់ផ្គង់ AI ទាំងមូលមែនទេ? |
🔴 ការបែងចែកចំណូល និងកម្រិតសារពើពន្ធជាតិ | តើតួនាទីស្នូលរបស់រដ្ឋអធិបតេយ្យអាចត្រូវបានសម្របសម្រួល (ឧទាហរណ៍ ធនាគារបម្រុង) ដែរឬទេ? តើសមត្ថភាពរបស់រដ្ឋក្នុងការបំពេញតាមការរំពឹងទុក និងផលប៉ះពាល់របស់ប្រជាពលរដ្ឋ (សង្គម សេដ្ឋកិច្ច នយោបាយ។ល។) នឹងត្រូវបានជឿនលឿន ឬកាត់បន្ថយ? |
🟢 ការបែងចែកឌីជីថល (ការបែងចែក AI) | តើវិសមភាពឌីជីថលដែលមានស្រាប់កាន់តែធ្ងន់ធ្ងរ ឬបង្កើតថ្មី? |
លក្ខណៈវិនិច្ឆ័យ | ឧទាហរណ៍នៃរបៀបដែលនេះអាចនឹងត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការវិភាគ |
🔴 អភិបាលកិច្ច និងសេវាសាធារណៈ | តើយន្តការអភិបាលកិច្ច និងប្រព័ន្ធអភិបាលកិច្ចសកលអាចរងផលប៉ះពាល់ជាវិជ្ជមាន ឬអវិជ្ជមានដែរឬទេ? |
🔴សារព័ត៌មាន | តើសុន្ទរកថាសាធារណៈទំនងជាក្លាយជាបន្ទាត់រាងប៉ូល និងមានកម្រិតប្រជាជនឬទេ? តើមានឥទ្ធិពលលើកម្រិតនៃការទុកចិត្តក្នុងអចលនវត្ថុទី៤ដែរឬទេ? តើក្រមសីលធម៌ និងស្តង់ដារសុចរិតភាពអ្នកសារព័ត៌មានធម្មតានឹងរងផលប៉ះពាល់បន្ថែមទៀតទេ? |
🔴 នីតិរដ្ឋ | តើវានឹងមានឥទ្ធិពលលើសមត្ថភាពក្នុងការកំណត់អត្តសញ្ញាណបុគ្គល ឬអង្គការដើម្បីទទួលខុសត្រូវ (ឧ. តើការទទួលខុសត្រូវប្រភេទណាដែលត្រូវប្រគល់ឱ្យក្បួនដោះស្រាយសម្រាប់លទ្ធផលអវិជ្ជមាន)? តើមានការបាត់បង់អធិបតេយ្យភាពដែលបានបង្កើតឡើង (បរិស្ថាន សារពើពន្ធ គោលនយោបាយសង្គម ក្រមសីលធម៌។ល។)? |
🔴 ទំនាក់ទំនងនយោបាយ និងសង្គម | តើមានលទ្ធភាពនៃទស្សនៈនយោបាយដែលមានភាពរឹងមាំជាងមុន និងមានឱកាសតិចសម្រាប់ការកសាងការមូលមតិគ្នាដែរឬទេ? តើមានលទ្ធភាពនៃក្រុមដែលមិនសូវមានបន្ថែមទៀតទេ? តើទម្រង់នយោបាយគូបដិបក្ខទំនងជាមានច្រើនឬតិច? |
🟢 អាជ្ញាប័ណ្ណសង្គម | តើមានការព្រួយបារម្ភអំពីឯកជនភាព បញ្ហាទំនុកចិត្ត និងកង្វល់ខាងសីលធម៌ដែលចាំបាច់ត្រូវពិចារណាសម្រាប់ការទទួលយកពីភាគីពាក់ព័ន្ធនៃការប្រើប្រាស់ដែរឬទេ? |
🟢ចំណេះដឹងជនជាតិដើមភាគតិច | តើចំណេះដឹង និងទិន្នន័យជនជាតិដើមភាគតិចអាចខូច ឬក្លែងបន្លំ? តើមានវិធានការគ្រប់គ្រាន់ដើម្បីការពារប្រឆាំងនឹងការបំភាន់ព័ត៌មានមិនពិត និងការកេងប្រវ័ញ្ចឬទេ? |
🟢 ប្រព័ន្ធវិទ្យាសាស្ត្រ | តើភាពត្រឹមត្រូវនៃការសិក្សា និងការស្រាវជ្រាវត្រូវបានសម្របសម្រួលទេ? តើមានការបាត់បង់ជំនឿលើវិទ្យាសាស្ត្រទេ? តើមានលទ្ធភាពនៃការប្រើប្រាស់ខុស ប្រើហួសហេតុ ឬការបំពានដែរឬទេ? តើអ្វីជាផលវិបាកនៃការអនុវត្តវិទ្យាសាស្ត្រ? |
លក្ខណៈវិនិច្ឆ័យ | ឧទាហរណ៍នៃរបៀបដែលនេះអាចនឹងត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការវិភាគ |
🟢 ការឃ្លាំមើលភាពជាក់លាក់ | តើប្រព័ន្ធត្រូវបានបណ្តុះបណ្តាលលើទិន្នន័យអាកប្បកិរិយា និងជីវសាស្រ្តរបស់បុគ្គល ហើយអាចប្រើដើម្បីកេងប្រវ័ញ្ចបុគ្គល ឬក្រុមបានទេ? |
🟢 ការប្រកួតប្រជែងឌីជីថល | តើតួអង្គរដ្ឋ ឬមិនមែនរដ្ឋ (ឧទាហរណ៍ក្រុមហ៊ុនបច្ចេកវិទ្យាធំៗ) អាចប្រើប្រព័ន្ធ និងទិន្នន័យដើម្បីយល់ និងគ្រប់គ្រងចំនួនប្រជាជន និងប្រព័ន្ធអេកូឡូស៊ីរបស់ប្រទេសផ្សេងទៀត ឬធ្វើឱ្យប៉ះពាល់ដល់ការគ្រប់គ្រងយុត្តាធិការដែរឬទេ? |
🟢 ការប្រកួតប្រជែងភូមិសាស្ត្រនយោបាយ | តើប្រព័ន្ធនេះអាចជំរុញការប្រកួតប្រជែងរវាងប្រទេសជុំវិញការទាញយកទិន្នន័យបុគ្គល និងក្រុមសម្រាប់ផលប្រយោជន៍សេដ្ឋកិច្ច វេជ្ជសាស្ត្រ និងសន្តិសុខដែរឬទេ? |
🟢 ការផ្លាស់ប្តូរនៅក្នុងមហាអំណាចពិភពលោក | តើស្ថានភាពនៃជាតិ-រដ្ឋជាតួអង្គភូមិសាស្ត្រនយោបាយចម្បងរបស់ពិភពលោក ស្ថិតនៅក្រោមការគំរាមកំហែងដែរឬទេ? តើក្រុមហ៊ុនបច្ចេកវិទ្យាកាន់អំណាចបានបម្រុងទុកសម្រាប់រដ្ឋជាតិហើយតើពួកគេបានក្លាយជាតួអង្គឯករាជ្យ និងអធិបតេយ្យភាពឬទេ? |
🟢ព័ត៌មានមិនពិត | តើប្រព័ន្ធនេះជួយសម្រួលដល់ការផលិត និងការផ្សព្វផ្សាយព័ត៌មានមិនពិតដោយតួអង្គរដ្ឋ និងមិនមែនរដ្ឋ ដែលជះឥទ្ធិពលដល់ការរួបរួមសង្គម ការជឿទុកចិត្ត និងលទ្ធិប្រជាធិបតេយ្យដែរឬទេ? |
🟢កម្មវិធីប្រើពីរ | តើមានលទ្ធភាពសម្រាប់ទាំងការប្រើយោធាផងដែរឬទេ? |
🟢 ការបែងចែកសណ្តាប់ធ្នាប់សកល | តើស៊ីឡូ ឬក្រុមនៃបទប្បញ្ញត្តិ និងការអនុលោមតាមច្បាប់អាចអភិវឌ្ឍដែលរារាំងកិច្ចសហប្រតិបត្តិការ នាំទៅរកភាពមិនស៊ីសង្វាក់គ្នាក្នុងការអនុវត្ត និងបង្កើតកន្លែងសម្រាប់ជម្លោះដែរឬទេ? |
លក្ខណៈវិនិច្ឆ័យ | ឧទាហរណ៍នៃរបៀបដែលនេះអាចនឹងត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការវិភាគ |
🟢 ការប្រើប្រាស់ថាមពល និងធនធាន (កាបូនឌីអុកស៊ីត) | តើប្រព័ន្ធ និងតម្រូវការបង្កើនការប្រើប្រាស់ថាមពល និងធនធានលើសពីប្រសិទ្ធភាពដែលទទួលបានតាមរយៈកម្មវិធីដែរឬទេ? |
🟢ប្រភពថាមពល | តើថាមពលបានមកពីណាសម្រាប់ប្រព័ន្ធ (អាចកើតឡើងវិញ និងឥន្ធនៈហ្វូស៊ីល ។ល។)? |
លក្ខណៈវិនិច្ឆ័យ | ឧទាហរណ៍នៃរបៀបដែលនេះអាចនឹងត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការវិភាគ |
🟡 ទិសដៅ និងការប្រមូល | តើទិន្នន័យ និងការបញ្ចូលដែលប្រមូលបានដោយមនុស្ស ឧបករណ៍ចាប់សញ្ញាស្វ័យប្រវត្តិ ឬទាំងពីរ? |
🟡 ភស្តុតាងនៃទិន្នន័យ | តើទិន្នន័យ និងការបញ្ចូលពីអ្នកជំនាញបានផ្តល់ អង្កេត សំយោគ ឬបានមកពី? តើមានការការពារទឹកជ្រាបដើម្បីបញ្ជាក់ភស្តុតាងទេ? |
🟡 លក្ខណៈថាមវន្តនៃទិន្នន័យ | តើទិន្នន័យថាមវន្ត ឋិតិវន្ត ថាមវន្តត្រូវបានធ្វើបច្ចុប្បន្នភាពពីពេលមួយទៅពេលមួយ ឬតាមពេលវេលាពិត? |
🟡 សិទ្ធិ | តើទិន្នន័យមានកម្មសិទ្ធិ សាធារណៈ ឬផ្ទាល់ខ្លួន (ទាក់ទងនឹងបុគ្គលដែលអាចកំណត់អត្តសញ្ញាណបាន)? |
🟡 អត្តសញ្ញាណ និងទិន្នន័យផ្ទាល់ខ្លួន | ប្រសិនបើផ្ទាល់ខ្លួន តើទិន្នន័យត្រូវបានអនាមិក ឬក្លែងក្លាយ? |
🟡 រចនាសម្ព័ន្ធទិន្នន័យ | តើទិន្នន័យមានរចនាសម្ព័ន្ធ ពាក់កណ្តាលរចនាសម្ព័ន្ធ ស្មុគស្មាញ ឬមិនមានរចនាសម្ព័ន្ធ? |
🟡 ទម្រង់ទិន្នន័យ | តើទម្រង់ទិន្នន័យ និងទិន្នន័យមេតាមានលក្ខណៈស្តង់ដារ ឬមិនស្តង់ដារ? |
🟡 មាត្រដ្ឋានទិន្នន័យ | តើមាត្រដ្ឋាននៃសំណុំទិន្នន័យគឺជាអ្វី? |
🟡 ភាពសមស្រប និងគុណភាពនៃទិន្នន័យ | តើសំណុំទិន្នន័យសមនឹងគោលបំណងទេ? តើទំហំគំរូគ្រប់គ្រាន់ទេ? តើវាតំណាងនិងពេញលេញឬទេ? តើទិន្នន័យមានសំឡេងយ៉ាងណា? តើវាងាយនឹងមានកំហុសឬ? |
លក្ខណៈវិនិច្ឆ័យ | ឧទាហរណ៍នៃរបៀបដែលនេះអាចនឹងត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការវិភាគ |
🟡 ភាពអាចរកបាននៃព័ត៌មាន | តើមានព័ត៌មានអំពីគំរូរបស់ប្រព័ន្ធដែរឬទេ? |
🟡 ប្រភេទនៃគំរូ AI | តើគំរូនិមិត្តសញ្ញា (ច្បាប់បង្កើតដោយមនុស្ស) ស្ថិតិ (ប្រើទិន្នន័យ) ឬកូនកាត់? |
🟡 សិទ្ធិទាក់ទងនឹងគំរូ | តើគំរូប្រភពបើកចំហ ឬកម្មសិទ្ធិ ខ្លួនឯង ឬភាគីទីបីត្រូវបានគ្រប់គ្រង? |
🟡 តែមួយនៃម៉ូដែលច្រើន។ | តើប្រព័ន្ធមានគំរូមួយឬម៉ូដែលដែលមានទំនាក់ទំនងគ្នាច្រើន? |
🟡 បង្កើត ឬរើសអើង | តើគំរូបង្កើត រើសអើង ឬទាំងពីរ? |
🟡 អគារគំរូ | តើប្រព័ន្ធរៀនដោយផ្អែកលើច្បាប់ដែលសរសេរដោយមនុស្ស ពីទិន្នន័យ តាមរយៈការរៀនដែលមានការត្រួតពិនិត្យ ឬតាមរយៈការរៀនពង្រឹង? |
🟡 ការវិវត្តន៍គំរូ (AI drift) | តើគំរូវិវត្តន៍ និង/ឬទទួលបានសមត្ថភាពពីអន្តរកម្មជាមួយទិន្នន័យក្នុងវិស័យនេះទេ? |
🟡 ការរៀនសហព័ន្ធ ឬកណ្តាល | តើគំរូត្រូវបានបណ្តុះបណ្តាលនៅកណ្តាល ឬនៅក្នុងម៉ាស៊ីនមេក្នុងស្រុកមួយចំនួន ឬឧបករណ៍ 'គែម'? |
🟡 ការអភិវឌ្ឍន៍ / ថែទាំ | តើម៉ូដែលមានលក្ខណៈជាសកល អាចប្ដូរតាមបំណង ឬតម្រូវតាមទិន្នន័យរបស់តួអង្គ AI? |
🟡 កំណត់ ឬប្រូបាប៊ីលីតេ | តើគំរូត្រូវបានប្រើក្នុងលក្ខណៈកំណត់ឬប្រូបាប៊ីលីតេ? |
🟡 តម្លាភាពគំរូ | តើព័ត៌មានមានសម្រាប់អ្នកប្រើប្រាស់ ដើម្បីអនុញ្ញាតឱ្យពួកគេយល់អំពីលទ្ធផលគំរូ និងដែនកំណត់ ឬប្រើប្រាស់ឧបសគ្គទេ? |
🟢 ដែនកំណត់នៃការគណនា | តើមានកម្រិតនៃការគណនាសម្រាប់ប្រព័ន្ធទេ? តើវាអាចទស្សន៍ទាយអំពីការលោតសមត្ថភាព ឬច្បាប់ធ្វើមាត្រដ្ឋានទេ? |
លក្ខណៈវិនិច្ឆ័យ | ឧទាហរណ៍នៃរបៀបដែលនេះអាចនឹងត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការវិភាគ |
🟡 កិច្ចការដែលអនុវត្តដោយប្រព័ន្ធ | តើប្រព័ន្ធដំណើរការអ្វីខ្លះ (ការទទួលស្គាល់ ការរកឃើញព្រឹត្តិការណ៍ ការព្យាករណ៍ជាដើម)? |
🟡 រួមបញ្ចូលគ្នានូវកិច្ចការ និងសកម្មភាព | តើប្រព័ន្ធរួមបញ្ចូលគ្នានូវកិច្ចការ និងសកម្មភាពមួយចំនួន (ប្រព័ន្ធបង្កើតមាតិកា ប្រព័ន្ធស្វយ័ត ប្រព័ន្ធគ្រប់គ្រង។ល។)? |
🟡 កម្រិតស្វ័យភាពរបស់ប្រព័ន្ធ | តើសកម្មភាពរបស់ប្រព័ន្ធមានស្វ័យភាពប៉ុណ្ណា ហើយតើមនុស្សមានតួនាទីអ្វី? |
🟡 កម្រិតនៃការចូលរួមរបស់មនុស្ស | តើមានការចូលរួមរបស់មនុស្សមួយចំនួនដើម្បីត្រួតពិនិត្យសកម្មភាពទូទៅនៃប្រព័ន្ធ AI និងសមត្ថភាពក្នុងការសម្រេចចិត្តនៅពេលណា និងរបៀបប្រើប្រាស់ប្រព័ន្ធ AI ក្នុងស្ថានភាពណាមួយទេ? |
🟡 កម្មវិធីស្នូល | តើប្រព័ន្ធនេះជាកម្មសិទ្ធិរបស់ផ្នែកកម្មវិធីស្នូលដូចជា បច្ចេកវិទ្យាភាសាមនុស្ស ចក្ខុវិស័យកុំព្យូទ័រ ស្វ័យប្រវត្តិកម្ម និង/ឬការបង្កើនប្រសិទ្ធភាព ឬមនុស្សយន្ត? |
🟡 ការវាយតម្លៃ | តើស្តង់ដារ ឬវិធីសាស្រ្តមានសម្រាប់វាយតម្លៃលទ្ធផលប្រព័ន្ធទេ? |
តើក្របខ័ណ្ឌនេះអាចត្រូវបានប្រើដោយរបៀបណា?
ក្របខណ្ឌនេះអាចត្រូវបានប្រើតាមវិធីជាច្រើន រួមទាំង៖
វិធីឆ្ពោះទៅមុខ
សរុបមក ក្របខណ្ឌវិភាគត្រូវបានផ្តល់ជាមូលដ្ឋាននៃកញ្ចប់ឧបករណ៍ដែលអាចត្រូវបានប្រើប្រាស់ដោយភាគីពាក់ព័ន្ធ ដើម្បីពិនិត្យមើលយ៉ាងទូលំទូលាយនូវការអភិវឌ្ឍន៍សំខាន់ៗទាំងវេទិកា ឬការប្រើប្រាស់ក្នុងលក្ខណៈស្រប និងជាប្រព័ន្ធ។ វិមាត្រដែលបង្ហាញក្នុងក្របខណ្ឌនេះ ពាក់ព័ន្ធពីការវាយតម្លៃផ្នែកបច្ចេកវិទ្យា រហូតដល់គោលនយោបាយសាធារណៈ ពីការអភិវឌ្ឍន៍មនុស្ស រហូតដល់សង្គមវិទ្យា និងអនាគត និងការសិក្សាបច្ចេកវិទ្យា។ ខណៈពេលដែលត្រូវបានបង្កើតឡើងសម្រាប់ AI ក្របខ័ណ្ឌវិភាគនេះមានកម្មវិធីទូលំទូលាយជាងនេះទៅទៀតចំពោះបច្ចេកវិទ្យាដែលកំពុងរីកចម្រើនផ្សេងទៀត។
៦ ក្រុមប្រឹក្សាប្រឹក្សា AI របស់អង្គការសហប្រជាជាតិ។ 6. របាយការណ៍បណ្តោះអាសន្ន៖ គ្រប់គ្រង AI សម្រាប់មនុស្សជាតិ។ https://www.un.org/sites/un2023.un.org/files/ai_advisory_body_interim_report.pd
ការទទួលស្គាល់
មនុស្សជាច្រើនត្រូវបានពិគ្រោះយោបល់ និងផ្តល់មតិកែលម្អក្នុងការអភិវឌ្ឍន៍ទាំងឯកសារពិភាក្សាដំបូង និងមតិកែលម្អបន្ទាប់ពីការចេញផ្សាយរបស់វា។ ឯកសារទាំងពីរនេះត្រូវបានព្រាងដោយលោក Sir Peter Gluckman ប្រធាន ISC និង Hema Sridhar អតីតប្រធានទីប្រឹក្សាវិទ្យាសាស្ត្រ ក្រសួងការពារជាតិនូវែលសេឡង់ និងបច្ចុប្បន្នជាអ្នកស្រាវជ្រាវជាន់ខ្ពស់នៃសាកលវិទ្យាល័យ Auckland ប្រទេសនូវែលសេឡង់។
ជាពិសេស ISC Lord Martin Rees អតីតប្រធាន Royal Society និងជាសហស្ថាបនិកនៃមជ្ឈមណ្ឌលសម្រាប់ការសិក្សាអំពីហានិភ័យដែលមានស្រាប់ សាកលវិទ្យាល័យ Cambridge; សាស្រ្តាចារ្យ Shivaji Sondhi សាស្ត្រាចារ្យរូបវិទ្យា សាកលវិទ្យាល័យ Oxford; សាស្រ្តាចារ្យ K Vijay Raghavan អតីតទីប្រឹក្សាវិទ្យាសាស្ត្រសំខាន់របស់រដ្ឋាភិបាលនៃប្រទេសឥណ្ឌា; Amandeep Singh Gill បេសកជននៃអគ្គលេខាធិការអង្គការសហប្រជាជាតិទទួលបន្ទុកផ្នែកបច្ចេកវិទ្យា; Seán Ó hÉigeartaigh, នាយកប្រតិបត្តិ, មជ្ឈមណ្ឌលសម្រាប់ការសិក្សាអំពីហានិភ័យដែលមានស្រាប់, សាកលវិទ្យាល័យ Cambridge; លោក David Spiegelhalter សាស្ត្រាចារ្យ Winton នៃការយល់ដឹងសាធារណៈអំពីហានិភ័យ នៃសាកលវិទ្យាល័យ
នៃ Cambridge; Amanda-June Brawner ទីប្រឹក្សាគោលនយោបាយជាន់ខ្ពស់ និងលោក Ian Wiggins នាយកកិច្ចការអន្តរជាតិ Royal Society ចក្រភពអង់គ្លេស; លោកបណ្ឌិត Jerome Duberry នាយកគ្រប់គ្រង និងវេជ្ជបណ្ឌិត Marie-Laure Salles នាយកវិទ្យាស្ថានបញ្ចប់ការសិក្សានៅទីក្រុងហ្សឺណែវ; ឆរ ផាន លី មជ្ឈមណ្ឌលសម្រាប់អនាគតជាយុទ្ធសាស្ត្រ ការិយាល័យនាយករដ្ឋមន្ត្រីសិង្ហបុរី; Barend Mons និងបណ្ឌិត Simon Hodson គណៈកម្មាធិការទិន្នន័យ (CoDATA); សាស្រ្តាចារ្យ Yuko Harayama អតីតនាយកប្រតិបត្តិ RIKEN; សាស្រ្តាចារ្យ
Rémi Quirion ប្រធាន INGSA; បណ្ឌិត Claire Craig សាកលវិទ្យាល័យ Oxford និងជាអតីតប្រធានផ្នែក Foresight ការិយាល័យវិទ្យាសាស្ត្ររបស់រដ្ឋាភិបាល។ សាស្ត្រាចារ្យ Yoshua Bengio ក្រុមប្រឹក្សាប្រឹក្សាវិទ្យាសាស្ត្ររបស់អគ្គលេខាធិការអង្គការសហប្រជាជាតិ និងនៅសាកលវិទ្យាល័យ University de Montréal; និងអ្នកផ្សេងទៀតជាច្រើនដែលបានផ្តល់មតិត្រឡប់ទៅកាន់ ISC នៅលើក្រដាសពិភាក្សាដំបូង។
ការរៀបចំប្រព័ន្ធអេកូស្រាវជ្រាវជាតិសម្រាប់ AI៖ យុទ្ធសាស្ត្រ និងវឌ្ឍនភាពក្នុងឆ្នាំ ២០២៤
ឯកសារការងារនេះពីធុងគិតរបស់ ISC ដែលជាមជ្ឈមណ្ឌលសម្រាប់អនាគតវិទ្យាសាស្រ្ត ផ្តល់ព័ត៌មានជាមូលដ្ឋាន និងការទទួលបានធនធានពីប្រទេសមកពីគ្រប់ទិសទីនៃពិភពលោក ក្នុងដំណាក់កាលផ្សេងៗនៃការរួមបញ្ចូល AI ទៅក្នុងប្រព័ន្ធអេកូស្រាវជ្រាវរបស់ពួកគេ។