ລົງ​ທະ​ບຽນ

ເອກະສານຕໍາແໜ່ງ

ກອບການປະເມີນການພັດທະນາຢ່າງວ່ອງໄວທາງດ້ານດິຈິຕອລ ແລະເຕັກໂນໂລຊີທີ່ກ່ຽວຂ້ອງ: AI, ຮູບແບບພາສາຂະໜາດໃຫຍ່ ແລະນອກເໜືອໄປຈາກນັ້ນ.

ເອກະສານສົນທະນາສະບັບນີ້ໃຫ້ໂຄງຮ່າງຂອງກອບເບື້ອງຕົ້ນເພື່ອແຈ້ງໃຫ້ການສົນທະນາທົ່ວໂລກແລະລະດັບຊາດທີ່ເກີດຂື້ນທີ່ກ່ຽວຂ້ອງກັບ AI.

ມັນໄດ້ຖືກສະເຫນີໂດຍນັກວິຊາການແລະຜູ້ຊ່ຽວຊານດ້ານນະໂຍບາຍຈໍານວນຫນຶ່ງທີ່ສະພາວິທະຍາສາດສາກົນ - ທີ່ມີສະມາຊິກຫຼາຍຝ່າຍຈາກວິທະຍາສາດສັງຄົມແລະທໍາມະຊາດ - ສ້າງຂະບວນການຜະລິດແລະຮັກສາກອບການອະທິບາຍ / ການກວດສອບຄວາມສ່ຽງ, ຜົນປະໂຫຍດ, ໄພຂົ່ມຂູ່ແລະໂອກາດ. ກ່ຽວຂ້ອງກັບເຕັກໂນໂລຊີດິຈິຕອລທີ່ເຄື່ອນຍ້າຍຢ່າງໄວວາ, ລວມທັງ – ແຕ່ບໍ່ຈໍາກັດ – AI. ຈຸດປະສົງຂອງລາຍການກວດກາແມ່ນເພື່ອແຈ້ງໃຫ້ຜູ້ມີສ່ວນກ່ຽວຂ້ອງທັງໝົດ - ລວມທັງລັດຖະບານ, ຜູ້ເຈລະຈາການຄ້າ, ຜູ້ຄວບຄຸມ, ສັງຄົມພົນລະເຮືອນ ແລະ ອຸດສາຫະກໍາ - ສະຖານະການໃນອະນາຄົດທີ່ເປັນໄປໄດ້, ແລະກໍານົດວິທີການທີ່ເຂົາເຈົ້າອາດຈະພິຈາລະນາໂອກາດ, ຜົນປະໂຫຍດ, ຄວາມສ່ຽງແລະບັນຫາອື່ນໆ.

ISC ມີຄວາມຍິນດີທີ່ຈະນໍາສະເຫນີບົດສົນທະນານີ້ກ່ຽວກັບການປະເມີນການພັດທະນາຢ່າງໄວວາຂອງດິຈິຕອນແລະເຕັກໂນໂລຢີທີ່ກ່ຽວຂ້ອງ. ປັນຍາປະດິດ, ຊີວະວິທະຍາສັງເຄາະ ແລະເທັກໂນໂລຍີ quantum ແມ່ນຕົວຢ່າງຫຼັກຂອງການປະດິດສ້າງ, ແຈ້ງໂດຍວິທະຍາສາດ, ປະກົດຂຶ້ນໃນຈັງຫວະທີ່ບໍ່ເຄີຍມີມາກ່ອນ. ມັນສາມາດເປັນສິ່ງທ້າທາຍທີ່ຈະຄາດການເປັນລະບົບບໍ່ພຽງແຕ່ຄໍາຮ້ອງສະຫມັກຂອງເຂົາເຈົ້າ, ແຕ່ຍັງມີຜົນກະທົບຂອງເຂົາເຈົ້າ.

ການປະເມີນດ້ານສັງຄົມຂອງ AI ທົ່ວໄປເຊັ່ນຮູບແບບພາສາຂະຫນາດໃຫຍ່, ເຊິ່ງຄາດຄະເນເປັນຕົວແທນສ່ວນໃຫຍ່ຂອງເອກະສານສົນທະນານີ້, ເປັນຂົວທີ່ຈໍາເປັນພາຍໃນການສົນທະນາໃນປະຈຸບັນ - ບາງຄັ້ງກໍ່ເກີດຄວາມຕື່ນຕົກໃຈ, ບາງຄັ້ງກໍ່ບໍ່ເລິກເຊິ່ງພຽງພໍໃນຄວາມຄິດ - ແລະຫຼັກສູດທີ່ຈໍາເປັນຂອງ ການປະຕິບັດທີ່ພວກເຮົາສາມາດປະຕິບັດ. ISC ໝັ້ນໃຈວ່າ ຕ້ອງມີຂອບການວິເຄາະລະຫວ່າງການຍອມຮັບຂອງສັງຄົມຂອງເຕັກໂນໂລຊີໃໝ່ດັ່ງກ່າວ ແລະລະບຽບການທີ່ເປັນໄປໄດ້ເພື່ອອຳນວຍຄວາມສະດວກໃຫ້ແກ່ການສົນທະນາຫຼາຍຝ່າຍທີ່ຈຳເປັນເພື່ອຕັດສິນໃຈຢ່າງມີສະຕິ ແລະຄວາມຮັບຜິດຊອບກ່ຽວກັບວິທີປັບປຸງຜົນປະໂຫຍດທາງສັງຄົມຂອງເທັກໂນໂລຍີທີ່ກຳລັງຈະພົ້ນເດັ່ນຂຶ້ນຢ່າງໄວວານີ້.

ISC ແມ່ນເປີດໃຫ້ປະຕິກິລິຍາຈາກຊຸມຊົນຂອງພວກເຮົາໂດຍຜ່ານເອກະສານສົນທະນານີ້ເພື່ອປະເມີນວິທີການທີ່ດີທີ່ສຸດທີ່ຈະສືບຕໍ່ເປັນສ່ວນຫນຶ່ງຂອງແລະປະກອບສ່ວນໃນການໂຕ້ວາທີກ່ຽວກັບເຕັກໂນໂລຢີ.

Salvatore Aricò, CEO
ເອກະສານສົນທະນາ ISC

ເອກະສານສົນທະນາ ISC

ກອບການປະເມີນການພັດທະນາຢ່າງວ່ອງໄວທາງດ້ານດິຈິຕອລ ແລະເຕັກໂນໂລຊີທີ່ກ່ຽວຂ້ອງ: AI, ຮູບແບບພາສາຂະໜາດໃຫຍ່ ແລະນອກເໜືອໄປຈາກນັ້ນ.

ເອກະສານສົນທະນາສະບັບນີ້ໃຫ້ໂຄງຮ່າງຂອງກອບເບື້ອງຕົ້ນເພື່ອແຈ້ງໃຫ້ການສົນທະນາທົ່ວໂລກແລະລະດັບຊາດທີ່ເກີດຂື້ນທີ່ກ່ຽວຂ້ອງກັບ AI.

ດາວໂຫລດລາຍງານ

New! ອ່ານສະບັບປີ 2024 ສໍາລັບຜູ້ສ້າງນະໂຍບາຍທີ່ມີກອບການດາວໂຫຼດສໍາລັບອົງການຂອງທ່ານ.

ຄໍາແນະນໍາສໍາລັບຜູ້ສ້າງນະໂຍບາຍ: ການປະເມີນເຕັກໂນໂລຢີທີ່ພັດທະນາຢ່າງໄວວາລວມທັງ AI, ຮູບແບບພາສາຂະຫນາດໃຫຍ່ແລະອື່ນໆ.

ເອກະສານສົນທະນາສະບັບນີ້ໃຫ້ໂຄງຮ່າງຂອງກອບເບື້ອງຕົ້ນເພື່ອແຈ້ງໃຫ້ການສົນທະນາທົ່ວໂລກແລະລະດັບຊາດທີ່ເກີດຂື້ນທີ່ກ່ຽວຂ້ອງກັບ AI.

ອ່ານເອກະສານສົນທະນາ 2023 ISC ອອນໄລນ໌ ຫຼືໃນພາສາທີ່ທ່ານຕ້ອງການ

ເນື້ອໃນ

  • ການນໍາສະເຫນີ 
  • ຄວາມເປັນມາ 
  • ການພັດທະນາຂອງກອບການວິເຄາະ 
  • ການນໍາໃຊ້ກອບການວິເຄາະ 
  • ຂະຫນາດທີ່ຈະພິຈາລະນາໃນເວລາທີ່ການປະເມີນເຕັກໂນໂລຢີໃຫມ່ 
  • ວິ​ທີ​ການ​ຕໍ່​ຫນ້າ​ 
  • ຂອບໃຈ

ການນໍາສະເຫນີ

ເຕັກໂນໂລຢີທີ່ພົ້ນເດັ່ນຂື້ນຢ່າງໄວວາສະເຫນີບັນຫາທີ່ທ້າທາຍໃນເວລາທີ່ມັນມາກັບການປົກຄອງແລະກົດລະບຽບທີ່ມີທ່າແຮງຂອງພວກເຂົາ. ນະໂຍບາຍແລະການໂຕ້ວາທີສາທາລະນະກ່ຽວກັບປັນຍາປະດິດ (AI) ແລະການນໍາໃຊ້ຂອງມັນໄດ້ນໍາເອົາບັນຫາເຫຼົ່ານີ້ໄປສູ່ຈຸດສຸມແຫຼມ. ໃນຂະນະທີ່ຫຼັກການທີ່ກວ້າງຂວາງສໍາລັບ AI ໄດ້ຖືກປະກາດໃຊ້ໂດຍ UNESCO, OECD ແລະອື່ນໆ, ແລະຍັງມີການສົນທະນາທີ່ຕັ້ງຫນ້າກ່ຽວກັບກົດລະບຽບຂອງໂລກຫຼືເຂດປົກຄອງຂອງເຕັກໂນໂລຢີ, ມັນມີຊ່ອງຫວ່າງທາງດ້ານ ontological ລະຫວ່າງການພັດທະນາຫຼັກການລະດັບສູງແລະການລວມເຂົ້າກັນໃນກົດລະບຽບ, ນະໂຍບາຍ, ວິທີການຄຸ້ມຄອງ ແລະການຄຸ້ມຄອງ. ນີ້ແມ່ນບ່ອນທີ່ຊຸມຊົນວິທະຍາສາດທີ່ບໍ່ແມ່ນລັດຖະບານສາມາດມີບົດບາດໂດຍສະເພາະ. 

ມັນໄດ້ຖືກສະເຫນີໂດຍນັກວິຊາການແລະຜູ້ຊ່ຽວຊານດ້ານນະໂຍບາຍຈໍານວນຫນຶ່ງທີ່ສະພາວິທະຍາສາດສາກົນ (ISC) - ດ້ວຍສະມາຊິກຫຼາຍຝ່າຍຈາກວິທະຍາສາດສັງຄົມແລະທໍາມະຊາດ - ສ້າງຂະບວນການຜະລິດແລະຮັກສາກອບການອະທິບາຍ / ບັນຊີລາຍການຄວາມສ່ຽງ, ຜົນປະໂຫຍດ, ໄພຂົ່ມຂູ່ ແລະໂອກາດທີ່ກ່ຽວຂ້ອງກັບເຕັກໂນໂລຊີດິຈິຕອລທີ່ເຄື່ອນຍ້າຍຢ່າງວ່ອງໄວ, ລວມທັງ – ແຕ່ບໍ່ຈໍາກັດ – AI. ຈຸດປະສົງຂອງລາຍການກວດກາແມ່ນເພື່ອແຈ້ງໃຫ້ຜູ້ມີສ່ວນກ່ຽວຂ້ອງທັງໝົດ - ລວມທັງລັດຖະບານ, ຜູ້ເຈລະຈາການຄ້າ, ຜູ້ຄວບຄຸມ, ສັງຄົມພົນລະເຮືອນ ແລະ ອຸດສາຫະກໍາ - ສະຖານະການໃນອະນາຄົດທີ່ເປັນໄປໄດ້, ແລະກໍານົດວິທີການທີ່ເຂົາເຈົ້າອາດຈະພິຈາລະນາໂອກາດ, ຜົນປະໂຫຍດ, ຄວາມສ່ຽງແລະບັນຫາອື່ນໆ. 

ຜົນໄດ້ຮັບຈະບໍ່ເຮັດຫນ້າທີ່ເປັນອົງການການປະເມີນ, ແຕ່ເປັນກອບການວິເຄາະທີ່ປັບຕົວແລະພັດທະນາເຊິ່ງສາມາດສະຫນັບສະຫນູນຂະບວນການປະເມີນແລະກົດລະບຽບທີ່ອາດຈະຖືກພັດທະນາໂດຍຜູ້ມີສ່ວນຮ່ວມ, ລວມທັງລັດຖະບານແລະລະບົບຫຼາຍຝ່າຍ. ຂອບການວິເຄາະໃດນຶ່ງຄວນຖືກພັດທະນາເປັນເອກະລາດຈາກການຮຽກຮ້ອງຂອງລັດຖະບານ ແລະອຸດສາຫະກໍາ, ໂດຍໃຫ້ຜົນປະໂຫຍດທີ່ເຂົ້າໃຈໄດ້. ມັນຍັງຕ້ອງເປັນຫຼາຍສ່ວນສູງສຸດໃນທັດສະນະຂອງມັນ, ດັ່ງນັ້ນຈຶ່ງກວມເອົາທຸກດ້ານຂອງເຕັກໂນໂລຢີແລະຜົນສະທ້ອນຂອງມັນ. 

ເອກະສານສົນທະນາສະບັບນີ້ໃຫ້ໂຄງຮ່າງຂອງກອບເບື້ອງຕົ້ນເພື່ອແຈ້ງໃຫ້ການສົນທະນາທົ່ວໂລກແລະລະດັບຊາດທີ່ເກີດຂື້ນທີ່ກ່ຽວຂ້ອງກັບ AI. 

ຄວາມເປັນມາ: ເປັນຫຍັງຕ້ອງເປັນກອບການວິເຄາະ?

ການປະກົດຕົວຢ່າງໄວວາຂອງເຕັກໂນໂລຢີທີ່ມີຄວາມຊັບຊ້ອນແລະຜົນສະທ້ອນຂອງ AI ແມ່ນການຮຽກຮ້ອງຜົນປະໂຫຍດອັນໃຫຍ່ຫຼວງຫຼາຍ. ຢ່າງໃດກໍ່ຕາມ, ມັນຍັງເຮັດໃຫ້ເກີດຄວາມຢ້ານກົວຕໍ່ຄວາມສ່ຽງທີ່ສໍາຄັນ, ຈາກບຸກຄົນໄປສູ່ລະດັບຍຸດທະສາດທາງດ້ານພູມສາດ. ການສົນທະນາສ່ວນໃຫຍ່ມີແນວໂນ້ມທີ່ຈະເກີດຂຶ້ນໃນຕອນທ້າຍສຸດຂອງທັດສະນະ, ແລະວິທີການປະຕິບັດຫຼາຍແມ່ນຈໍາເປັນ. ເຕັກໂນໂລຊີ AI ຈະສືບຕໍ່ພັດທະນາແລະປະຫວັດສາດສະແດງໃຫ້ເຫັນວ່າເກືອບທຸກເຕັກໂນໂລຊີມີທັງການນໍາໃຊ້ທີ່ເປັນປະໂຫຍດແລະເປັນອັນຕະລາຍ. ຄໍາຖາມແມ່ນ, ດັ່ງນັ້ນ: ພວກເຮົາສາມາດບັນລຸຜົນໄດ້ຮັບທີ່ເປັນປະໂຫຍດຈາກເຕັກໂນໂລຢີນີ້ໄດ້ແນວໃດ, ໃນຂະນະທີ່ຫຼຸດຜ່ອນຄວາມສ່ຽງຂອງຜົນສະທ້ອນທີ່ເປັນອັນຕະລາຍ, ບາງອັນອາດມີຢູ່ໃນຂະຫນາດ? 

ອະນາຄົດແມ່ນມີຄວາມບໍ່ແນ່ນອນສະເໝີ, ແຕ່ມີສຽງທີ່ໜ້າເຊື່ອຖື ແລະ ຊ່ຽວຊານຢ່າງພຽງພໍກ່ຽວກັບ AI ແລະ AI ການຜະລິດເພື່ອຊຸກຍູ້ໃຫ້ມີວິທີການປ້ອງກັນທີ່ຂ້ອນຂ້າງ. ນອກຈາກນັ້ນ, ວິທີການລະບົບແມ່ນຈໍາເປັນ, ເພາະວ່າ AI ເປັນຊັ້ນຂອງເຕັກໂນໂລຢີທີ່ມີການນໍາໃຊ້ຢ່າງກວ້າງຂວາງແລະການນໍາໃຊ້ໂດຍຜູ້ໃຊ້ຫຼາຍປະເພດ. ນີ້​ຫມາຍ​ຄວາມ​ວ່າ​ສະ​ພາບ​ການ​ຢ່າງ​ເຕັມ​ທີ່​ຕ້ອງ​ໄດ້​ຮັບ​ການ​ພິ​ຈາ​ລະ​ນາ​ຜົນ​ກະ​ທົບ​ຂອງ AI ສໍາ​ລັບ​ບຸກ​ຄົນ​, ຊີ​ວິດ​ສັງ​ຄົມ​, ຊີ​ວິດ​ພົນ​ລະ​ເມືອງ​, ຊີ​ວິດ​ສັງ​ຄົມ​ແລະ​ໃນ​ສະ​ພາບ​ການ​ຂອງ​ໂລກ​. 

ບໍ່ເຫມືອນກັບເຕັກໂນໂລຊີທີ່ຜ່ານມາຫຼາຍທີ່ສຸດ, ດິຈິຕອນແລະເຕັກໂນໂລຊີທີ່ກ່ຽວຂ້ອງມີໄລຍະເວລາສັ້ນຫຼາຍຈາກການພັດທະນາກັບການປ່ອຍ, ສ່ວນໃຫຍ່ແມ່ນຂັບເຄື່ອນໂດຍຜົນປະໂຫຍດຂອງບໍລິສັດການຜະລິດຫຼືອົງການຕ່າງໆ. AI ແມ່ນແຜ່ລາມຢ່າງໄວວາ; ຄຸນສົມບັດບາງຢ່າງອາດຈະເຫັນໄດ້ຊັດເຈນຫຼັງຈາກປ່ອຍອອກມາ, ແລະເທັກໂນໂລຢີສາມາດມີທັງການໃຊ້ງານທີ່ໂຫດຮ້າຍ ແລະ ເມດຕາ. ຂະຫນາດມູນຄ່າທີ່ສໍາຄັນຈະມີອິດທິພົນຕໍ່ການຮັບຮູ້ຂອງການນໍາໃຊ້ໃດໆ. ນອກຈາກນັ້ນ, ອາດຈະມີຄວາມສົນໃຈທາງດ້ານພູມສາດ-ຍຸດທະສາດໃນການຫຼິ້ນ. 

ມາຮອດປະຈຸ, ລະບຽບການຂອງເຕັກໂນໂລຊີ virtual ໄດ້ພົບເຫັນສ່ວນໃຫຍ່ໂດຍຜ່ານທັດສະນະຂອງ "ຫຼັກການ" ແລະການປະຕິບັດຕາມຄວາມສະຫມັກໃຈ. ຫວ່າງ​ມໍ່ໆ​ມາ​ນີ້, ການ​ສົນທະນາ​ໄດ້​ຫັນ​ໄປ​ສູ່​ບັນຫາ​ການ​ປົກຄອງ​ປະ​ເທດ​ແລະ​ຫຼາຍ​ຝ່າຍ, ​ໃນ​ນັ້ນ​ມີ​ການ​ນຳ​ໃຊ້​ກົນ​ໄກ​ການ​ຄຸ້ມ​ຄອງ​ແລະ​ກົນ​ໄກ​ນະ​ໂຍບາຍ​ອື່ນໆ. ການຮຽກຮ້ອງທີ່ເຮັດສໍາລັບຫຼືຕໍ່ຕ້ານ AI ມັກຈະເປັນ hyperbolic ແລະ - ມີລັກສະນະຂອງເຕັກໂນໂລຢີ - ຍາກທີ່ຈະປະເມີນ. ການສ້າງລະບົບລະບຽບການດ້ານເທັກໂນໂລຍີລະດັບໂລກ ຫຼືລະດັບຊາດທີ່ມີປະສິດຕິຜົນຈະເປັນສິ່ງທີ່ທ້າທາຍ, ແລະຫຼາຍຂັ້ນຕອນຂອງການຕັດສິນໃຈທີ່ມີຂໍ້ມູນຄວາມສ່ຽງຈະມີຄວາມຈໍາເປັນຕາມລະບົບຕ່ອງໂສ້, ຈາກຜູ້ປະດິດເຖິງຜູ້ຜະລິດ, ຜູ້ໃຊ້, ກັບລັດຖະບານ ແລະລະບົບຫຼາຍຝ່າຍ. 

ໃນຂະນະທີ່ຫຼັກການລະດັບສູງໄດ້ຮັບການປະກາດໃຊ້ໂດຍອົງການ UNESCO, OECD ແລະຄະນະກໍາມະການເອີຣົບ, ໃນບັນດາສິ່ງອື່ນໆ, ແລະການສົນທະນາລະດັບສູງຕ່າງໆແມ່ນກໍາລັງດໍາເນີນກ່ຽວກັບບັນຫາກົດລະບຽບທີ່ມີທ່າແຮງ, ມັນມີຊ່ອງຫວ່າງຂະຫນາດໃຫຍ່ລະຫວ່າງຫຼັກການດັ່ງກ່າວແລະການຄຸ້ມຄອງຫຼືລະບຽບການ. ການຈັດໝວດໝູ່ຂອງການພິຈາລະນາທີ່ຜູ້ຄວບຄຸມອາດຈະຕ້ອງພິຈາລະນາແມ່ນຫຍັງ? ການຈັດວາງຂອບແຄບຈະບໍ່ສະຫລາດ, ເນື່ອງຈາກມີຜົນສະທ້ອນຢ່າງກວ້າງຂວາງຂອງເຕັກໂນໂລຊີເຫຼົ່ານີ້. ທ່າແຮງດັ່ງກ່າວໄດ້ເປັນຫົວເລື່ອງຂອງຄໍາຄິດຄໍາເຫັນຫຼາຍ, ທັງໃນທາງບວກແລະທາງລົບ.

ການພັດທະນາຂອງກອບການວິເຄາະ

ISC ແມ່ນ NGO ລະດັບໂລກຕົ້ນຕໍທີ່ປະສົມປະສານວິທະຍາສາດທໍາມະຊາດແລະສັງຄົມ. ການເຂົ້າເຖິງທົ່ວໂລກແລະລະບຽບວິໄນຫມາຍຄວາມວ່າມັນໄດ້ຖືກວາງໄວ້ຢ່າງດີທີ່ຈະສ້າງຄໍາແນະນໍາທີ່ເປັນເອກະລາດແລະທົ່ວໂລກທີ່ກ່ຽວຂ້ອງເພື່ອແຈ້ງທາງເລືອກທີ່ສັບສົນລ່ວງຫນ້າ, ໂດຍສະເພາະຍ້ອນວ່າສຽງໃນປະຈຸບັນໃນເວທີນີ້ແມ່ນມາຈາກອຸດສາຫະກໍາຫຼືຈາກອໍານາດເຕັກໂນໂລຢີທີ່ສໍາຄັນ. ຫຼັງຈາກການສົນທະນາຢ່າງກວ້າງຂວາງໃນເດືອນທີ່ຜ່ານມາ, ລວມທັງການພິຈາລະນາຂະບວນການປະເມີນຜົນທີ່ບໍ່ແມ່ນລັດຖະບານ, ISC ໄດ້ສະຫຼຸບວ່າການປະກອບສ່ວນທີ່ເປັນປະໂຫຍດທີ່ສຸດແມ່ນການຜະລິດແລະຮັກສາກອບການວິເຄາະທີ່ດັດແປງທີ່ສາມາດຖືກນໍາໃຊ້ເປັນພື້ນຖານສໍາລັບການສົນທະນາແລະການຕັດສິນໃຈໂດຍ. ພາກສ່ວນກ່ຽວຂ້ອງທັງໝົດ, ລວມທັງໃນໄລຍະຂະບວນການປະເມີນຢ່າງເປັນທາງການທີ່ເກີດຂຶ້ນ. 

ໂຄງຮ່າງການນີ້ຈະໃຊ້ຮູບແບບຂອງບັນຊີລາຍການກວດກາລວມທີ່ສາມາດນໍາໃຊ້ໄດ້ໂດຍທັງລັດຖະບານແລະສະຖາບັນທີ່ບໍ່ຂຶ້ນກັບລັດຖະບານ. ກອບການກໍານົດແລະຂຸດຄົ້ນທ່າແຮງຂອງເຕັກໂນໂລຢີເຊັ່ນ AI ແລະອະນຸພັນຂອງມັນໂດຍຜ່ານທັດສະນະທີ່ກວ້າງຂວາງທີ່ກວມເອົາສຸຂະພາບຂອງມະນຸດແລະສັງຄົມ, ເຊັ່ນດຽວກັນກັບປັດໃຈພາຍນອກ, ເຊັ່ນເສດຖະກິດ, ການເມືອງ, ສະພາບແວດລ້ອມແລະຄວາມປອດໄພ. ບາງດ້ານຂອງລາຍການກວດສອບອາດຈະມີຄວາມກ່ຽວຂ້ອງຫຼາຍກ່ວາອື່ນໆ, ຂຶ້ນກັບສະພາບການ, ແຕ່ການຕັດສິນໃຈທີ່ດີກວ່າຈະເປັນໄປໄດ້ຖ້າໂດເມນທັງຫມົດຖືກພິຈາລະນາ. ນີ້​ແມ່ນ​ມູນ​ຄ່າ​ທີ່​ເກີດ​ຂຶ້ນ​ຂອງ​ວິ​ທີ​ການ​ກວດ​ສອບ​ໄດ້​. 

ໂຄງຮ່າງການທີ່ສະເໜີມາແມ່ນໄດ້ມາຈາກວຽກງານ ແລະແນວຄິດທີ່ຜ່ານມາ, ລວມທັງບົດລາຍງານສຸຂະພາບດີຈີຕອນຂອງເຄືອຂ່າຍສາກົນເພື່ອການໃຫ້ຄໍາປຶກສາດ້ານວິທະຍາສາດຂອງລັດຖະບານ (INGSA).1 ແລະຂອບການຈັດປະເພດ AI ຂອງ OECD2 ເພື່ອນໍາສະເຫນີຈໍານວນທັງຫມົດຂອງໂອກາດ, ຄວາມສ່ຽງແລະຜົນກະທົບຂອງ AI. ຜະລິດຕະພັນທີ່ຜ່ານມາເຫຼົ່ານີ້ຖືກຈໍາກັດຫຼາຍກວ່າໃນຄວາມຕັ້ງໃຈຂອງພວກເຂົາຍ້ອນເວລາແລະສະພາບການຂອງພວກເຂົາ, ມັນຈໍາເປັນຕ້ອງມີກອບການຄອບຄຸມທີ່ນໍາສະເຫນີບັນຫາຢ່າງເຕັມທີ່ທັງໃນໄລຍະສັ້ນແລະໄລຍະຍາວ. 

ໃນຂະນະທີ່ພັດທະນາສໍາລັບການພິຈາລະນາຂອງ AI, ກອບການວິເຄາະນີ້ສາມາດຖືກນໍາໃຊ້ກັບເຕັກໂນໂລຢີທີ່ພົ້ນເດັ່ນຂື້ນຢ່າງໄວວາ. ບັນຫາດັ່ງກ່າວໄດ້ຖືກແບ່ງອອກຢ່າງກວ້າງຂວາງເປັນປະເພດຕໍ່ໄປນີ້ເພື່ອກວດກາຕື່ມອີກ: 

  • ສະຫວັດດີການ (ລວມທັງຂອງບຸກຄົນ ຫຼືຕົນເອງ, ສັງຄົມ ແລະຊີວິດສັງຄົມ, ແລະຊີວິດພົນລະເມືອງ) 
  • ການຄ້າ ແລະເສດຖະກິດ 
  • ກ່ຽວ​ກັບ​ສິງ​ແວດ​ລ້ອມ 
  • ພູມສາດ-ຍຸດທະສາດ ແລະທາງພູມສາດ-ການເມືອງ 
  • ເຕັກ​ໂນ​ໂລ​ຊີ (ຄຸນ​ລັກ​ສະ​ນະ​ຂອງ​ລະ​ບົບ​ການ​ອອກ​ແບບ​ແລະ​ການ​ນໍາ​ໃຊ້​) 

ບັນຊີລາຍຊື່ຂອງການພິຈາລະນາສໍາລັບແຕ່ລະປະເພດຂ້າງເທິງແມ່ນລວມພ້ອມກັບໂອກາດແລະຜົນສະທ້ອນຂອງພວກເຂົາ. ບາງຄົນມີຄວາມກ່ຽວຂ້ອງສໍາລັບຕົວຢ່າງສະເພາະຫຼືຄໍາຮ້ອງສະຫມັກຂອງ AI ໃນຂະນະທີ່ຄົນອື່ນແມ່ນທົ່ວໄປແລະບໍ່ຫນ້າເຊື່ອຂອງເວທີຫຼືການນໍາໃຊ້. ບໍ່ມີການພິຈາລະນາອັນດຽວທີ່ລວມຢູ່ໃນນີ້ຄວນຈະຖືກຖືວ່າເປັນບູລິມະສິດແລະດັ່ງນັ້ນ, ທັງຫມົດຄວນໄດ້ຮັບການກວດກາ. 

ກອບນີ້ຖືກນໍາໃຊ້ແນວໃດ?

ໂຄງຮ່າງການນີ້ສາມາດຖືກນໍາໃຊ້ໃນ, ແຕ່ບໍ່ຈໍາກັດ, ວິທີການດັ່ງຕໍ່ໄປນີ້: 

  • ຮັດແຄບຊ່ອງຫວ່າງລະຫວ່າງຫຼັກການ ແລະ ການປະເມີນ ໂດຍການສ້າງສາວິໄນທົ່ວໄປທີ່ມີຄວາມຖືກຕ້ອງຂອງຂອບເຂດການພິຈາລະນາທີ່ສາມາດນໍາໃຊ້ໄດ້ຈາກພາກສ່ວນທີ່ກ່ຽວຂ້ອງເປັນພື້ນຖານເພື່ອແຈ້ງໃຫ້ຮູ້ ແລະ ກໍານົດແນວຄິດຕື່ມອີກ, ລວມທັງກອບການປະເມີນທີ່ອາດຈະຖືກພັດທະນາໂດຍອໍານາດການປົກ. 
  • ເພື່ອແຈ້ງຜົນການປະເມີນຜົນກະທົບ. ກົດຫມາຍວ່າດ້ວຍ AI ຂອງ EU ຮຽກຮ້ອງໃຫ້ອົງການຈັດຕັ້ງທີ່ສະຫນອງເຄື່ອງມື AI ຫຼືຮັບຮອງເອົາ AI ໃນຂະບວນການຂອງພວກເຂົາເພື່ອດໍາເນີນການປະເມີນຜົນກະທົບເພື່ອກໍານົດຄວາມສ່ຽງຂອງການລິເລີ່ມຂອງພວກເຂົາແລະນໍາໃຊ້ວິທີການຄຸ້ມຄອງຄວາມສ່ຽງທີ່ເຫມາະສົມ. ກອບທີ່ນໍາສະເຫນີຢູ່ທີ່ນີ້ສາມາດຖືກນໍາໃຊ້ເປັນພື້ນຖານສໍາລັບການນີ້. 
  • ເພື່ອເສີມຂະຫຍາຍຫຼັກການດ້ານຈັນຍາບັນທີ່ຈໍາເປັນເພື່ອນໍາພາແລະຄຸ້ມຄອງການນໍາໃຊ້ AI. ກອບສາມາດເຮັດໄດ້ໂດຍການສະຫນອງພື້ນຖານທີ່ມີຄວາມຍືດຫຍຸ່ນທີ່ລະບົບທີ່ເຊື່ອຖືໄດ້ສາມາດໄດ້ຮັບການພັດທະນາແລະຮັບປະກັນການນໍາໃຊ້ເຕັກໂນໂລຢີທີ່ຖືກຕ້ອງຕາມກົດຫມາຍ, ມີຈັນຍາບັນ, ເຂັ້ມແຂງແລະຄວາມຮັບຜິດຊອບ. ຫຼັກການເຫຼົ່ານີ້ສາມາດຖືກທົດສອບຕໍ່ກັບຜົນກະທົບອັນເຕັມທີ່ທີ່ນໍາສະເຫນີໃນກອບນີ້. 
  • ເພື່ອອໍານວຍຄວາມສະດວກໃຫ້ຫຼັກຊັບປະຕິບັດມາດຕະການທີ່ມີຢູ່ແລ້ວ (ເຊັ່ນ: ລະບຽບການ, ນິຕິບັນຍັດ, ນະໂຍບາຍ) ແລະກໍານົດຊ່ອງຫວ່າງທີ່ຕ້ອງການພິຈາລະນາຕື່ມອີກ. 
  • ກອບແມ່ນບໍ່ມີເຫດຜົນຕໍ່ເຕັກໂນໂລຢີແລະການນໍາໃຊ້ຂອງມັນ. ດັ່ງນັ້ນຈຶ່ງສາມາດຖືກນໍາໃຊ້ໃນຂົງເຂດທີ່ແຕກຕ່າງກັນຫຼາຍເຊັ່ນ: ຊີວະວິທະຍາສັງເຄາະ. 

ຕາຕະລາງຕໍ່ໄປນີ້ແມ່ນການສ້າງຂະໜາດຕົ້ນໆຂອງກອບການວິເຄາະ. ອີງຕາມເທກໂນໂລຍີແລະການນໍາໃຊ້ຂອງມັນ, ບາງອົງປະກອບຈະມີຄວາມກ່ຽວຂ້ອງຫຼາຍກ່ວາສິ່ງອື່ນໆ. ຕົວຢ່າງໄດ້ຖືກສະຫນອງໃຫ້ສະແດງໃຫ້ເຫັນວ່າເປັນຫຍັງແຕ່ລະໂດເມນອາດຈະສໍາຄັນ; ໃນ​ສະ​ພາບ​ການ, ໂຄງ​ຮ່າງ​ການ​ຈະ​ຮຽກ​ຮ້ອງ​ໃຫ້​ມີ​ການ​ຂະ​ຫຍາຍ​ຕົວ​ທີ່​ກ່ຽວ​ຂ້ອງ​ກັບ​ສະ​ພາບ​ການ. ມັນຍັງມີຄວາມສໍາຄັນທີ່ຈະຈໍາແນກລະຫວ່າງການພັດທະນາເວທີແລະບັນຫາທົ່ວໄປທີ່ອາດຈະເກີດຂື້ນໃນລະຫວ່າງຄໍາຮ້ອງສະຫມັກສະເພາະ.  

ຂະຫນາດທີ່ຈະພິຈາລະນາໃນເວລາທີ່ການປະເມີນເຕັກໂນໂລຢີໃຫມ່

ຮ່າງເບື້ອງຕົ້ນຂອງຂະຫນາດທີ່ອາດຈະຕ້ອງພິຈາລະນາໃນເວລາທີ່ການປະເມີນເຕັກໂນໂລຢີໃຫມ່
ຂະຫນາດຂອງຜົນກະທົບ Criteria ຕົວຢ່າງຂອງວິທີການນີ້ອາດຈະຖືກສະທ້ອນໃຫ້ເຫັນໃນການວິເຄາະ  
ສ່ວນບຸກຄົນ / ຕົນເອງ  ຄວາມສາມາດ AI ຂອງຜູ້ໃຊ້  ຄວາມສາມາດ ແລະຮູ້ຄຸນສົມບັດຂອງລະບົບແມ່ນຜູ້ໃຊ້ທີ່ອາດຈະພົວພັນກັບລະບົບແນວໃດ? ພວກເຂົາຈະໃຫ້ຂໍ້ມູນຜູ້ໃຊ້ທີ່ກ່ຽວຂ້ອງແລະຄໍາເຕືອນແນວໃດ? 
ພາກສ່ວນກ່ຽວຂ້ອງທີ່ໄດ້ຮັບຜົນກະທົບ  ໃຜເປັນຜູ້ມີສ່ວນກ່ຽວຂ້ອງຕົ້ນຕໍທີ່ຈະໄດ້ຮັບຜົນກະທົບຈາກລະບົບ (ເຊັ່ນ: ບຸກຄົນ, ຊຸມຊົນ, ຜູ້ມີຄວາມສ່ຽງ, ພະນັກງານໃນຂະແຫນງການ, ເດັກນ້ອຍ, ຜູ້ສ້າງນະໂຍບາຍ, ຜູ້ຊ່ຽວຊານ)? 
ທາງເລືອກ ຜູ້ໃຊ້ສະຫນອງໃຫ້ມີທາງເລືອກທີ່ຈະເລືອກອອກຈາກລະບົບ; ພວກເຂົາຄວນໄດ້ຮັບໂອກາດທີ່ຈະທ້າທາຍຫຼືແກ້ໄຂຜົນຜະລິດບໍ?  
ຄວາມສ່ຽງຕໍ່ສິດທິມະນຸດ ແລະຄຸນຄ່າປະຊາທິປະໄຕ  ລະບົບສາມາດສົ່ງຜົນກະທົບ (ແລະໃນທິດທາງໃດ) ຕໍ່ສິດທິມະນຸດ, ລວມທັງ, ແຕ່ບໍ່ຈໍາກັດ, ຄວາມເປັນສ່ວນຕົວ, ສິດເສລີພາບໃນການສະແດງ, ຄວາມຍຸດຕິທໍາ, ຄວາມສ່ຽງຕໍ່ການຈໍາແນກ, ແລະອື່ນໆ? 
ຜົນກະທົບທີ່ອາດມີຕໍ່ສຸຂະພາບຂອງປະຊາຊົນ ລະບົບສາມາດສົ່ງຜົນກະທົບຕໍ່ (ແລະໃນທິດທາງໃດ) ສະຫວັດດີການຂອງຜູ້ໃຊ້ສ່ວນບຸກຄົນ (ເຊັ່ນ: ຄຸນນະພາບວຽກ, ການສຶກສາ, ການພົວພັນທາງສັງຄົມ, ສຸຂະພາບຈິດ, ຕົວຕົນ, ສະພາບແວດລ້ອມ)?  
ທ່າແຮງສໍາລັບການຍົກຍ້າຍແຮງງານຂອງມະນຸດ ມີທ່າແຮງສໍາລັບລະບົບທີ່ຈະອັດຕະໂນມັດວຽກງານຫຼືຫນ້າທີ່ທີ່ຖືກປະຕິບັດໂດຍມະນຸດບໍ? ຖ້າເປັນດັ່ງນັ້ນ, ຜົນກະທົບທາງລຸ່ມແມ່ນຫຍັງ? 
ທ່າແຮງສຳລັບຕົວຕົນ, ຄຸນຄ່າ ຫຼືການໝູນໃຊ້ຄວາມຮູ້ ລະບົບຖືກອອກແບບເພື່ອ ຫຼືມີທ່າແຮງທີ່ຈະຈັດການຕົວຕົນ ຫຼືຄຸນຄ່າຂອງຜູ້ໃຊ້ທີ່ຕັ້ງໄວ້, ຫຼືເຜີຍແຜ່ຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ? ມີທ່າແຮງສໍາລັບການຮຽກຮ້ອງຄວາມຊ່ຽວຊານທີ່ບໍ່ຖືກຕ້ອງຫຼືບໍ່ສາມາດກວດສອບໄດ້ບໍ? 
ມາດຕະການຂອງມູນຄ່າຂອງຕົນເອງ ມີຄວາມກົດດັນທີ່ຈະສະແດງຕົວຕົນທີ່ເໝາະສົມບໍ? ອັດຕະໂນມັດສາມາດທົດແທນຄວາມຮູ້ສຶກຂອງການປະຕິບັດສ່ວນບຸກຄົນໄດ້ບໍ? ມີຄວາມກົດດັນທີ່ຈະແຂ່ງຂັນກັບລະບົບໃນບ່ອນເຮັດວຽກບໍ? ຊື່ສຽງສ່ວນບຸກຄົນຖືກສ້າງຂື້ນເພື່ອປົກປ້ອງຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ? 
ຄວາມເປັນສ່ວນຕົວ ມີຄວາມຮັບຜິດຊອບທີ່ແຜ່ຂະຫຍາຍສໍາລັບການປົກປ້ອງຄວາມເປັນສ່ວນຕົວແລະມີການສົມມຸດຕິຖານໃດໆກ່ຽວກັບວິທີການນໍາໃຊ້ຂໍ້ມູນສ່ວນຕົວບໍ?  
ເອກະລາດ ລະບົບສາມາດສົ່ງຜົນກະທົບຕໍ່ຄວາມເປັນເອກະລາດຂອງມະນຸດໂດຍການສ້າງຄວາມເພິ່ງພໍໃຈຕໍ່ເຕັກໂນໂລຢີໂດຍຜູ້ໃຊ້ສຸດທ້າຍບໍ? 
ການພັດທະນາມະນຸດ ຜົນກະທົບຕໍ່ການໄດ້ມາຂອງທັກສະທີ່ສໍາຄັນສໍາລັບການພັດທະນາມະນຸດເຊັ່ນ: ຫນ້າທີ່ບໍລິຫານ, ທັກສະລະຫວ່າງບຸກຄົນ, ການປ່ຽນແປງເວລາເອົາໃຈໃສ່ຜົນກະທົບຕໍ່ການຮຽນຮູ້, ການພັດທະນາບຸກຄະລິກກະພາບ, ຄວາມກັງວົນກ່ຽວກັບສຸຂະພາບຈິດ, ແລະອື່ນໆ?  
ການດູແລສຸຂະພາບສ່ວນບຸກຄົນ ມີການຮຽກຮ້ອງການແກ້ໄຂການດູແລສຸຂະພາບສ່ວນບຸກຄົນບໍ? ຖ້າເປັນດັ່ງນັ້ນ, ພວກມັນຖືກກວດສອບມາດຕະຖານກົດລະບຽບບໍ? 
ສຸຂະພາບຈິດ ມີຄວາມສ່ຽງຕໍ່ຄວາມກັງວົນທີ່ເພີ່ມຂຶ້ນ, ຄວາມໂດດດ່ຽວຫຼືບັນຫາສຸຂະພາບຈິດອື່ນໆ, ຫຼືເຕັກໂນໂລຢີສາມາດຫຼຸດຜ່ອນຜົນກະທົບດັ່ງກ່າວໄດ້ບໍ? 
ວິວັດທະນາການຂອງມະນຸດ ເຕັກໂນໂລຢີສາມາດນໍາໄປສູ່ການປ່ຽນແປງໃນວິວັດທະນາການຂອງມະນຸດບໍ?  
ຂະຫນາດຂອງຜົນກະທົບ Criteria ລາຍລະອຽດ 
ສັງຄົມ/ຊີວິດສັງຄົມ ຄຸນຄ່າຂອງສັງຄົມ  ລະບົບດັ່ງກ່າວມີການປ່ຽນແປງພື້ນຖານຂອງສັງຄົມຫຼືເຮັດໃຫ້ຄວາມເປັນປົກກະຕິຂອງແນວຄວາມຄິດທີ່ເຄີຍຖືວ່າເປັນການຕໍ່ຕ້ານສັງຄົມ, ຫຼືມັນລະເມີດຄຸນຄ່າຂອງສັງຄົມຂອງວັດທະນະທໍາທີ່ມັນຖືກນໍາໃຊ້?  
ການພົວພັນທາງສັງຄົມ ມີຜົນກະທົບກ່ຽວກັບການຕິດຕໍ່ຂອງມະນຸດທີ່ມີຄວາມຫມາຍ, ລວມທັງຄວາມສໍາພັນທາງອາລົມບໍ?  
ຄວາມ​ທ່ຽງ​ທໍາ ຄໍາຮ້ອງສະຫມັກ / ເຕັກໂນໂລຢີມີແນວໂນ້ມທີ່ຈະຫຼຸດຜ່ອນຫຼືເສີມຂະຫຍາຍຄວາມບໍ່ສະເຫມີພາບ (ເຊັ່ນ: ເສດຖະກິດ, ສັງຄົມ, ການສຶກສາ, ພູມສາດ)? 
ສຸຂະພາບຂອງປະຊາກອນ ມີທ່າແຮງສໍາລັບລະບົບທີ່ຈະກ້າວຫນ້າຫຼືທໍາລາຍຄວາມຕັ້ງໃຈດ້ານສຸຂະພາບຂອງປະຊາກອນບໍ? 
ການສະແດງອອກທາງດ້ານວັດທະນະທໍາ ການເພີ່ມຂຶ້ນຂອງຄວາມເໝາະສົມທາງດ້ານວັດທະນະທໍາ ຫຼືການຈໍາແນກແມ່ນເປັນໄປໄດ້ ຫຼືຍາກທີ່ຈະແກ້ໄຂ? ການເອື່ອຍອີງໃສ່ລະບົບໃນການຕັດສິນໃຈມີທ່າແຮງທີ່ຈະຍົກເວັ້ນ ຫຼື ຫຍໍ້ສ່ວນຕ່າງໆຂອງສັງຄົມບໍ? 
ການສຶກສາສາທາລະນະ ມີຜົນກະທົບຕໍ່ບົດບາດຂອງຄູ ຫຼືສະຖາບັນການສຶກສາບໍ? ລະບົບເນັ້ນຫນັກຫຼືຫຼຸດຜ່ອນຄວາມບໍ່ສະເຫມີພາບລະຫວ່າງນັກຮຽນແລະການແບ່ງແຍກດິຈິຕອນບໍ? ຄຸນຄ່າພາຍໃນຂອງຄວາມຮູ້ ຫຼືຄວາມເຂົ້າໃຈທີ່ວິພາກວິຈານແມ່ນກ້າວໜ້າ ຫຼືຖືກທຳລາຍບໍ?  
ຄວາມຈິງທີ່ບິດເບືອນ ວິທີການທີ່ພວກເຮົາໃຊ້ເພື່ອເຂົ້າໃຈສິ່ງທີ່ເປັນຄວາມຈິງແມ່ນຍັງໃຊ້ໄດ້ບໍ? ຄວາມຮັບຮູ້ຂອງຄວາມເປັນຈິງຖືກຫຼຸດຫນ້ອຍລົງບໍ?  
ສະພາບເສດຖະກິດ (ການຄ້າ)         ຂະແໜງອຸດສາຫະກຳ ຂະແໜງອຸດສາຫະກຳໃດຖືກນຳໃຊ້ໃນລະບົບ (ເຊັ່ນ: ການເງິນ, ກະສິກຳ, ການດູແລສຸຂະພາບ, ການສຶກສາ, ປ້ອງກັນຊາດ)? 
ຮູບແບບທຸລະກິດ ລະບົບການຈ້າງງານຢູ່ໃນຫນ້າທີ່ທຸລະກິດໃດ, ແລະໃນຄວາມສາມາດໃດ? ລະບົບຖືກນໍາໃຊ້ຢູ່ໃສ (ເອກະຊົນ, ສາທາລະນະ, ບໍ່ຫວັງຜົນກໍາໄລ)? 
ຜົນກະທົບຕໍ່ກິດຈະກໍາທີ່ສໍາຄັນ  ການຂັດຂວາງການເຮັດວຽກຫຼືກິດຈະກໍາຂອງລະບົບຈະສົ່ງຜົນກະທົບຕໍ່ການບໍລິການທີ່ສໍາຄັນຫຼືໂຄງສ້າງພື້ນຖານທີ່ສໍາຄັນບໍ?  
ລົມຫາຍໃຈຂອງການປະຕິບັດ ລະບົບຖືກນຳໃຊ້ແນວໃດ (ແຄບໆພາຍໃນອົງກອນທຽບກັບການແຜ່ຂະຫຍາຍທົ່ວປະເທດ/ສາກົນ)? 
ການເຕີບໂຕທາງດ້ານເຕັກນິກ (TRL) ລະບົບຈະໃຫຍ່ທາງດ້ານເຕັກນິກແນວໃດ?  
ອະທິປະໄຕດ້ານເຕັກໂນໂລຢີ ເຕັກ​ໂນ​ໂລ​ຊີ​ເຮັດ​ໃຫ້​ຄວາມ​ເຂັ້ມ​ແຂງ​ຂອງ​ອະ​ທິ​ປະ​ໄຕ​ເຕັກ​ໂນ​ໂລ​ຊີ​ຫຼາຍ​ຂຶ້ນ​.  
ການແຈກຢາຍລາຍຮັບ ແລະ ອັດຕາເງິນເຟີ້ແຫ່ງຊາດ ພາລະບົດບາດຫຼັກຂອງລັດອະທິປະໄຕສາມາດຖືກຫຼຸດຫນ້ອຍລົງ (ເຊັ່ນ: ທະນາຄານສະຫງວນ)? ຄວາມສາມາດຂອງລັດເພື່ອຕອບສະຫນອງຄວາມຄາດຫວັງຂອງພົນລະເມືອງແລະຜົນສະທ້ອນ (ເຊັ່ນ: ສັງຄົມ, ເສດຖະກິດ, ການເມືອງ) ຈະກ້າວຫນ້າຫຼືຫຼຸດລົງ?  
ຂະຫນາດຂອງຜົນກະທົບ Criteria ລາຍລະອຽດ 
ຊີວິດພົນລະເມືອງ     ການປົກຄອງ ແລະການບໍລິການສາທາລະນະ ກົນ​ໄກ​ການ​ຄຸ້ມ​ຄອງ​ແລະ​ລະ​ບົບ​ການ​ຄຸ້ມ​ຄອງ​ທົ່ວ​ໂລກ​ຈະ​ໄດ້​ຮັບ​ຜົນ​ກະ​ທົບ​ໃນ​ທາງ​ບວກ​ຫຼື​ທາງ​ລົບ? 
ຂ່າວສື່ມວນຊົນ ການສົນທະນາສາທາລະນະມີແນວໂນ້ມທີ່ຈະກາຍເປັນຫຼາຍຫຼືຫນ້ອຍ polarized ແລະ entrenched ໃນລະດັບປະຊາກອນ? ຈະມີຜົນກະທົບກ່ຽວກັບລະດັບຄວາມໄວ້ວາງໃຈໃນສື່ມວນຊົນບໍ? ຈັນຍາບັນຂອງນັກຂ່າວທຳມະດາ ແລະມາດຕະຖານຄວາມຊື່ສັດຈະໄດ້ຮັບຜົນກະທົບຕື່ມອີກບໍ?  
Rule of law ຈະມີຜົນກະທົບກ່ຽວກັບຄວາມສາມາດໃນການກໍານົດບຸກຄົນຫຼືອົງການຈັດຕັ້ງທີ່ຈະຮັບຜິດຊອບ (ເຊັ່ນ: ຄວາມຮັບຜິດຊອບປະເພດໃດແດ່ທີ່ຈະມອບຫມາຍໃຫ້ລະບົບວິທີການສໍາລັບຜົນໄດ້ຮັບທາງລົບ)? ອັນນີ້ສ້າງການສູນເສຍອະທິປະໄຕ (ເຊັ່ນ: ສິ່ງແວດລ້ອມ, ງົບປະມານ, ນະໂຍບາຍສັງຄົມ, ຈັນຍາບັນ) ບໍ?  
ການເມືອງ ແລະ ຄວາມສາມັກຄີ ມີຄວາມເປັນໄປໄດ້ຂອງທັດສະນະທາງດ້ານການເມືອງທີ່ຍຶດຫມັ້ນຫຼາຍແລະມີໂອກາດຫນ້ອຍສໍາລັບການສ້າງຄວາມເຫັນດີນໍາບໍ? ມີຄວາມເປັນໄປໄດ້ຂອງກຸ່ມຄົນດ້ອຍໂອກາດຕື່ມອີກບໍ? ຮູບແບບການເມືອງຂອງຝ່າຍຄ້ານມີຄວາມເປັນໄປໄດ້ຫຼາຍ ຫຼືໜ້ອຍບໍ? 
ສະພາບການທາງພູມສາດ-ຍຸດທະສາດ/ທາງພູມສາດ-ການເມືອງ     ການເຝົ້າລະວັງຄວາມຊັດເຈນ ລະບົບໄດ້ຖືກຝຶກອົບຮົມກ່ຽວກັບຂໍ້ມູນພຶດຕິກໍາແລະຊີວະວິທະຍາຂອງບຸກຄົນ, ແລະຖ້າເປັນດັ່ງນັ້ນ, ພວກເຂົາສາມາດຖືກນໍາໃຊ້ເພື່ອຂູດຮີດບຸກຄົນຫຼືກຸ່ມ? 
ອານານິຄົມດິຈິຕອນ ຜູ້ກ່ຽວຂ້ອງຂອງລັດ ຫຼື ທີ່ບໍ່ແມ່ນຂອງລັດສາມາດນຳໃຊ້ລະບົບ ແລະ ຂໍ້ມູນເພື່ອເຂົ້າໃຈ ແລະ ຄວບຄຸມປະຊາກອນ ແລະ ລະບົບນິເວດຂອງປະເທດອື່ນ, ຫຼື ທຳລາຍການຄວບຄຸມອຳນາດການປົກຄອງບໍ? 
ການແຂ່ງຂັນທາງດ້ານພູມສາດ-ການເມືອງ ລະບົບຜົນກະທົບຕໍ່ການແຂ່ງຂັນລະຫວ່າງປະເທດແລະເວທີເຕັກໂນໂລຢີສໍາລັບການເຂົ້າເຖິງຂໍ້ມູນສ່ວນບຸກຄົນແລະລວມສໍາລັບຈຸດປະສົງທາງເສດຖະກິດຫຼືຍຸດທະສາດບໍ? 
ສັນຍາການຄ້າແລະການຄ້າ ລະບົບດັ່ງກ່າວມີຜົນສະທ້ອນຕໍ່ສັນຍາການຄ້າລະຫວ່າງປະເທດບໍ? 
ປ່ຽນ​ແປງ​ໃນ​ມະຫາ​ອຳນາດ​ທົ່ວ​ໂລກ ສະຖານະ​ຂອງ​ປະ​ເທດ​ຊາດ​ເປັນ​ຕົວ​ຊີ້​ນຳ​ທາງ​ພູມ​ສາດ​ທາງ​ການ​ເມືອງ​ຕົ້ນຕໍ​ຂອງ​ໂລກ​ຖືກ​ຂົ່ມຂູ່​ບໍ? ບໍລິສັດເຕັກໂນໂລຢີຈະຍຶດອໍານາດເມື່ອສະຫງວນໄວ້ສໍາລັບປະເທດຊາດແລະພວກເຂົາກາຍເປັນນັກສະແດງເອກະລາດອະທິປະໄຕບໍ?  
Disinformation ມັນງ່າຍກວ່າສໍາລັບນັກສະແດງຂອງລັດແລະທີ່ບໍ່ແມ່ນຂອງລັດທີ່ຈະຜະລິດແລະເຜີຍແຜ່ຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງທີ່ສົ່ງຜົນກະທົບຕໍ່ຄວາມສາມັກຄີທາງສັງຄົມ, ຄວາມໄວ້ວາງໃຈແລະປະຊາທິປະໄຕ?  
ກ່ຽວ​ກັບ​ສິງ​ແວດ​ລ້ອມ   ການຊົມໃຊ້ພະລັງງານ ແລະຊັບພະຍາກອນ (ຮອຍຄາບອນ) ລະບົບແລະຄວາມຕ້ອງການເພີ່ມການບໍລິໂພກພະລັງງານແລະຊັບພະຍາກອນຫຼາຍກວ່າແລະສູງກວ່າການເພີ່ມປະສິດທິພາບທີ່ໄດ້ຮັບຜ່ານຄໍາຮ້ອງສະຫມັກບໍ?  
ຂະຫນາດຂອງຜົນກະທົບ Criteria ລາຍລະອຽດ 
ຂໍ້ມູນແລະການປ້ອນຂໍ້ມູນ          ການຊອກຄົ້ນຫາແລະການເກັບລວບລວມ  ຂໍ້ມູນແລະການປ້ອນຂໍ້ມູນຖືກເກັບກໍາໂດຍມະນຸດ, ເຊັນເຊີອັດຕະໂນມັດຫຼືທັງສອງ?  
ຫຼັກຖານສະແດງຂໍ້ມູນ  ກ່ຽວກັບຂໍ້ມູນເຫຼົ່ານີ້ແມ່ນສະຫນອງໃຫ້, ສັງເກດເຫັນ, ສັງເຄາະຫຼືມາຈາກ? ມີການປົກປ້ອງລາຍນໍ້າເພື່ອຢືນຢັນການພິສູດບໍ? 
ລັກສະນະໄດນາມິກຂອງຂໍ້ມູນ ຂໍ້ມູນແບບເຄື່ອນໄຫວ, ຄົງທີ່, ປັບປຸງເປັນຊ່ວງເວລາ ຫຼື ອັບເດດໃນເວລາຈິງບໍ? 
ສິດທິ ຂໍ້ມູນແມ່ນເປັນເຈົ້າຂອງ, ສາທາລະນະ ຫຼືສ່ວນບຸກຄົນ (ເຊັ່ນ, ກ່ຽວຂ້ອງກັບບຸກຄົນທີ່ສາມາດລະບຸຕົວຕົນໄດ້) ບໍ?  
ການລະບຸຂໍ້ມູນສ່ວນຕົວ  ຖ້າຂໍ້ມູນສ່ວນຕົວ, ພວກມັນຖືກເປີດເຜີຍຊື່ຫຼືນາມສະກຸນບໍ?  
ໂຄງສ້າງຂອງຂໍ້ມູນ ຂໍ້ມູນມີໂຄງສ້າງ, ເຄິ່ງໂຄງສ້າງ, ສະລັບສັບຊ້ອນຫຼືບໍ່ມີໂຄງສ້າງບໍ? 
ຮູບແບບຂອງຂໍ້ມູນ  ຮູບແບບຂອງຂໍ້ມູນແລະ metadata ແມ່ນມາດຕະຖານຫຼືບໍ່ໄດ້ມາດຕະຖານ?  
ຂະໜາດຂອງຂໍ້ມູນ  ຂະໜາດຂອງຊຸດຂໍ້ມູນແມ່ນຫຍັງ?  
ຄວາມເໝາະສົມ ແລະຄຸນນະພາບຂອງຂໍ້ມູນ ຊຸດຂໍ້ມູນເຫມາະກັບຈຸດປະສົງບໍ? ຂະຫນາດຕົວຢ່າງພຽງພໍບໍ? ມັນເປັນຕົວແທນແລະຄົບຖ້ວນພຽງພໍບໍ? ຂໍ້ມູນມີສຽງດັງແນວໃດ? ມັນມີຄວາມຜິດພາດບໍ່?  
ຮູບແບບ             ຄວາມພ້ອມຂອງຂໍ້ມູນ  ຂໍ້ມູນກ່ຽວກັບຮູບແບບຂອງລະບົບມີຢູ່ບໍ?  
ປະເພດຂອງຕົວແບບ AI  ຕົວແບບເປັນສັນຍາລັກ (ກົດລະບຽບທີ່ສ້າງຂຶ້ນໂດຍມະນຸດ), ສະຖິຕິ (ໃຊ້ຂໍ້ມູນ) ຫຼືປະສົມ?  
ສິດທິທີ່ກ່ຽວຂ້ອງກັບຕົວແບບ  ຮູບແບບເປີດແຫຼ່ງ, ຫຼືເປັນເຈົ້າຂອງ, ຕົນເອງຫຼືພາກສ່ວນທີສາມຄຸ້ມຄອງບໍ? 
ແບບດຽວ ຫຼືຫຼາຍແບບ  ລະບົບປະກອບດ້ວຍຕົວແບບຫນຶ່ງຫຼືຫຼາຍຕົວແບບເຊື່ອມຕໍ່ກັນບໍ?  
ໂດຍທົ່ວໄປ ຫຼືຈໍາແນກ ແບບຈໍາລອງແມ່ນເປັນການສ້າງ, ຈໍາແນກຫຼືທັງສອງ?  
ການສ້າງແບບຈໍາລອງ  ລະບົບຮຽນຮູ້ໂດຍອີງໃສ່ກົດລະບຽບທີ່ມະນຸດຂຽນ, ຈາກຂໍ້ມູນ, ໂດຍຜ່ານການຮຽນຮູ້ທີ່ມີການຄວບຄຸມຫຼືຜ່ານການຮຽນຮູ້ເສີມບໍ?  
ການວິວັດທະນາການຕົວແບບ (AI drift) ຮູບແບບດັ່ງກ່າວພັດທະນາ ແລະ/ຫຼືໄດ້ຮັບຄວາມສາມາດຈາກການພົວພັນກັບຂໍ້ມູນໃນພາກສະຫນາມບໍ?  
ການຮຽນຮູ້ແບບສະຫະພັນ ຫຼືສູນກາງ ຮູບແບບດັ່ງກ່າວໄດ້ຮັບການຝຶກອົບຮົມຈາກສູນກາງຫຼືຢູ່ໃນເຄື່ອງແມ່ຂ່າຍທ້ອງຖິ່ນຈໍານວນຫນຶ່ງຫຼືອຸປະກອນ "ແຂບ" ບໍ?  
ການພັດທະນາແລະບໍາລຸງຮັກສາ  ຮູບແບບດັ່ງກ່າວເປັນແບບທົ່ວໆໄປ, ສາມາດປັບແຕ່ງໄດ້ ຫຼື ເໝາະກັບຂໍ້ມູນຂອງນັກສະແດງ AI ບໍ?  
ການກໍານົດຫຼືຄວາມເປັນໄປໄດ້  ຮູບແບບທີ່ໃຊ້ໃນລັກສະນະທີ່ກໍານົດ ຫຼືຄວາມເປັນໄປໄດ້?  
ຄວາມໂປ່ງໃສຂອງຕົວແບບ  ມີຂໍ້ມູນສໍາລັບຜູ້ໃຊ້ເພື່ອໃຫ້ພວກເຂົາເຂົ້າໃຈຜົນໄດ້ຮັບຂອງຕົວແບບແລະຂໍ້ຈໍາກັດຫຼືຂໍ້ຈໍາກັດຂອງການນໍາໃຊ້ບໍ?  
ຂໍ້ຈຳກັດດ້ານການຄິດໄລ່ ມີຂໍ້ຈໍາກັດດ້ານຄອມພິວເຕີ້ກັບລະບົບບໍ? ພວກເຮົາສາມາດຄາດຄະເນການກະໂດດຂອງຄວາມສາມາດຫຼືກົດຫມາຍການປັບຂະຫນາດໄດ້ບໍ? 
ຂະຫນາດຂອງຜົນກະທົບ Criteria ລາຍລະອຽດ 
ວຽກງານແລະຜົນຜະລິດ       ວຽກງານທີ່ປະຕິບັດໂດຍລະບົບ ລະບົບປະຕິບັດວຽກງານໃດແດ່ (ເຊັ່ນ: ການຮັບຮູ້, ການກວດພົບເຫດການ, ການພະຍາກອນ)?  
ສົມທົບວຽກງານແລະການປະຕິບັດ  ລະບົບການລວມເອົາວຽກງານແລະການດໍາເນີນການຈໍານວນຫນຶ່ງ (ເຊັ່ນ: ລະບົບການຜະລິດເນື້ອຫາ, ລະບົບປົກຄອງຕົນເອງ, ລະບົບການຄວບຄຸມ) ບໍ?  
ລະດັບຄວາມເປັນເອກະລາດຂອງລະບົບ ການກະທຳຂອງລະບົບມີຄວາມເປັນເອກະລາດຫຼາຍປານໃດ ແລະມະນຸດມີບົດບາດອັນໃດແດ່?  
ລະດັບການມີສ່ວນຮ່ວມຂອງມະນຸດ ມີການມີສ່ວນຮ່ວມຂອງມະນຸດຈໍານວນຫນຶ່ງເພື່ອເບິ່ງແຍງກິດຈະກໍາໂດຍລວມຂອງລະບົບ AI ແລະຄວາມສາມາດໃນການຕັດສິນໃຈເວລາແລະວິທີການນໍາໃຊ້ລະບົບໃນສະຖານະການໃດກໍ່ຕາມ? 
ຄໍາຮ້ອງສະຫມັກຫຼັກ ລະບົບເປັນຂອງພື້ນທີ່ຄໍາຮ້ອງສະຫມັກຫຼັກເຊັ່ນ: ເຕັກໂນໂລຊີພາສາຂອງມະນຸດ, ວິໄສທັດຄອມພິວເຕີ, ອັດຕະໂນມັດແລະ / ຫຼືການເພີ່ມປະສິດທິພາບ, ຫຼືຫຸ່ນຍົນ?  
ການປະເມີນຜົນ  ມີມາດຕະຖານຫຼືວິທີການຕ່າງໆເພື່ອປະເມີນຜົນຜະລິດຂອງລະບົບຫຼືຈັດການກັບຄຸນສົມບັດທີ່ເກີດຂື້ນທີ່ບໍ່ໄດ້ຄາດຫວັງ?  

ກຸນແຈ ແຫຼ່ງຂໍ້ມູນຂອງຄໍາອະທິບາຍ

ຂໍ້ຄວາມທຳມະດາ:
Gluckman, P. ແລະ Allen, K. 2018. ຄວາມເຂົ້າໃຈກ່ຽວກັບສະຫວັດດີການໃນແງ່ຂອງການຫັນປ່ຽນທາງດ້ານດິຈິຕອນຢ່າງໄວວາແລະທີ່ກ່ຽວຂ້ອງ. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf 

ຂໍ້ຄວາມທີ່ກ້າຫານ:
OECD. 2022. OECD Framework ສໍາລັບການຈັດປະເພດລະບົບ AI. OECD ເອກະສານເສດຖະກິດດິຈິຕອນ, ສະບັບເລກທີ 323, OECD Publishing, Paris. https://oecd.ai/en/classification 

ຕົວ ໜັງ ສືໂຕເນີ້ງ:
ຕົວອະທິບາຍໃໝ່ (ຈາກຫຼາຍແຫຼ່ງ) 

ວິ​ທີ​ການ​ຕໍ່​ຫນ້າ​

ອີງຕາມການຕອບໂຕ້ຂອງເອກະສານສົນທະນານີ້, ຄະນະປະຕິບັດງານຜູ້ຊ່ຽວຊານຈະຖືກສ້າງຕັ້ງຂື້ນໂດຍ ISC ເພື່ອພັດທະນາຫຼືປັບປຸງກອບການວິເຄາະຂ້າງເທິງນີ້, ເຊິ່ງຜູ້ກ່ຽວຂ້ອງອາດຈະເບິ່ງການພັດທະນາທີ່ສໍາຄັນໃດໆທັງເວທີຫຼືຂະຫນາດຂອງການນໍາໃຊ້. ຄະນະປະຕິບັດງານຈະມີຄວາມຫຼາກຫຼາຍທາງດ້ານລະບຽບວິໄນ, ທາງດ້ານພູມສັນຖານແລະທາງດ້ານປະຊາກອນ, ໂດຍມີຄວາມຊໍານານຕັ້ງແຕ່ການປະເມີນເຕັກໂນໂລຢີໄປສູ່ນະໂຍບາຍສາທາລະນະ, ຈາກການພັດທະນາມະນຸດຈົນເຖິງສັງຄົມວິທະຍາແລະອະນາຄົດແລະການສຶກສາເຕັກໂນໂລຢີ. 

ເພື່ອເຂົ້າຮ່ວມກັບເອກະສານສົນທະນານີ້, ກະລຸນາເຂົ້າໄປເບິ່ງ council.science/publications/framework-digital-technologies 

ຂອບໃຈ

ປະຊາຊົນຈໍານວນຫຼາຍໄດ້ຮັບການປຶກສາຫາລືໃນການພັດທະນາເອກະສານສະບັບນີ້, ເຊິ່ງໄດ້ຖືກຮ່າງໂດຍ Sir Peter Gluckman, ປະທານ, ISC ແລະ Hema Sridhar, ອະດີດຫົວຫນ້ານັກວິທະຍາສາດ, ກະຊວງປ້ອງກັນປະເທດ, ແລະປະຈຸບັນເປັນນັກຄົ້ນຄວ້າອາວຸໂສ, ມະຫາວິທະຍາໄລ Auckland, ນິວຊີແລນ. 

ໂດຍສະເພາະພວກເຮົາຂໍຂອບໃຈ Lord Martin Rees, ອະດີດປະທານຂອງ Royal Society ແລະຜູ້ຮ່ວມກໍ່ຕັ້ງຂອງສູນສໍາລັບການສຶກສາຂອງຄວາມສ່ຽງທີ່ມີຢູ່ແລ້ວ, ວິທະຍາໄລ Cambridge; ສາດສະດາຈານ Shivaji Sondhi, ອາຈານສອນວິຊາຟີຊິກສາດ, ມະຫາວິທະຍາໄລ Oxford; ສາດສະດາຈານ K Vijay Raghavan, ອະດີດທີ່ປຶກສາດ້ານວິທະຍາສາດຕົ້ນຕໍຂອງລັດຖະບານອິນເດຍ; Amandeep Singh Gill, ທູດພິເສດຂອງເລຂາທິການໃຫຍ່ ສປຊ ກ່ຽວກັບເຕັກໂນໂລຊີ; ທ່ານດຣ Seán Óh Éigeartaigh, ຜູ້ອໍານວຍການບໍລິຫານ, ສູນການສຶກສາຄວາມສ່ຽງທີ່ມີຢູ່ແລ້ວ, ມະຫາວິທະຍາໄລ Cambridge; Amanda-June Brawner, ທີ່ປຶກສາດ້ານນະໂຍບາຍອາວຸໂສ ແລະ Ian Wiggins, ຜູ້ອໍານວຍການຝ່າຍການຕ່າງປະເທດ, Royal Society UK; ດຣ Jerome Duberry, ທ່ານດຣ Marie-Laure Salles, ຜູ້ອໍານວຍການ, ສະຖາບັນຈົບການສຶກສາຂອງເຈນີວາ; ທ່ານ Chor Pharn Lee, ສູນ​ຍຸດ​ທະ​ສາດ​ອາ​ນາ​ຄົດ, ຫ້ອງ​ການ​ນາ​ຍົກ​ລັດ​ຖະ​ມົນ​ຕີ, ສິງ​ກະ​ໂປ; Barend Mons ແລະທ່ານດຣ Simon Hodson, ຄະນະກໍາມະການກ່ຽວກັບຂໍ້ມູນ (CoDATA); ສາດສະດາຈານ Yuko Harayama, ປະເທດຍີ່ປຸ່ນ; ສາດສະດາຈານ Rémi Quirion, ປະທານ, INGSA; ທ່ານດຣ Claire Craig, ມະຫາວິທະຍາໄລ Oxford ແລະອະດີດຫົວຫນ້າ Foresight, ຫ້ອງວ່າການລັດຖະບານຂອງວິທະຍາສາດ; ແລະທ່ານສາດສະດາຈານ Yoshua Bengio, ຄະນະທີ່ປຶກສາວິທະຍາສາດຂອງເລຂາທິການໃຫຍ່ອົງການສະຫະປະຊາຊາດ ແລະຢູ່ທີ່ມະຫາວິທະຍາໄລ Montréal. ວິທີການກວດສອບບັນຊີໄດ້ຖືກຮັບຮອງໂດຍທົ່ວໄປແລະທັນເວລາຂອງການປະຕິບັດໃດໆໂດຍ ISC ໄດ້ເນັ້ນຫນັກ. 


ເຂົ້າຮ່ວມການສົນທະນາ

ຊື່
ບົດບາດຍິງຊາຍ
ການ​ປົກ​ປ້ອງ​ຂໍ້​ມູນ​: ຜູ້​ຕອບ​ສະ​ຫນອງ​ຄວນ​ຈະ​ໄດ້​ຮັບ​ຮູ້​ວ່າ ISC ຈະ​ຖື​ຂໍ້​ມູນ​ທີ່​ສົ່ງ​ສໍາ​ລັບ​ໄລ​ຍະ​ເວ​ລາ​ຂອງ​ການ​ລິ​ເລີ່ມ (ເບິ່ງ​: https://council.science/privacy-policy​)
ພວກເຮົາຂໍເຊື້ອເຊີນທ່ານໃຫ້ຈອງຈົດຫມາຍຂ່າວ ISC.

ຮູບພາບ: adamichi ໃນ iStock