ມັນໄດ້ຖືກສະເຫນີໂດຍນັກວິຊາການແລະຜູ້ຊ່ຽວຊານດ້ານນະໂຍບາຍຈໍານວນຫນຶ່ງທີ່ສະພາວິທະຍາສາດສາກົນ - ທີ່ມີສະມາຊິກຫຼາຍຝ່າຍຈາກວິທະຍາສາດສັງຄົມແລະທໍາມະຊາດ - ສ້າງຂະບວນການຜະລິດແລະຮັກສາກອບການອະທິບາຍ / ການກວດສອບຄວາມສ່ຽງ, ຜົນປະໂຫຍດ, ໄພຂົ່ມຂູ່ແລະໂອກາດ. ກ່ຽວຂ້ອງກັບເຕັກໂນໂລຊີດິຈິຕອລທີ່ເຄື່ອນຍ້າຍຢ່າງໄວວາ, ລວມທັງ – ແຕ່ບໍ່ຈໍາກັດ – AI. ຈຸດປະສົງຂອງລາຍການກວດກາແມ່ນເພື່ອແຈ້ງໃຫ້ຜູ້ມີສ່ວນກ່ຽວຂ້ອງທັງໝົດ - ລວມທັງລັດຖະບານ, ຜູ້ເຈລະຈາການຄ້າ, ຜູ້ຄວບຄຸມ, ສັງຄົມພົນລະເຮືອນ ແລະ ອຸດສາຫະກໍາ - ສະຖານະການໃນອະນາຄົດທີ່ເປັນໄປໄດ້, ແລະກໍານົດວິທີການທີ່ເຂົາເຈົ້າອາດຈະພິຈາລະນາໂອກາດ, ຜົນປະໂຫຍດ, ຄວາມສ່ຽງແລະບັນຫາອື່ນໆ.
ISC ມີຄວາມຍິນດີທີ່ຈະນໍາສະເຫນີບົດສົນທະນານີ້ກ່ຽວກັບການປະເມີນການພັດທະນາຢ່າງໄວວາຂອງດິຈິຕອນແລະເຕັກໂນໂລຢີທີ່ກ່ຽວຂ້ອງ. ປັນຍາປະດິດ, ຊີວະວິທະຍາສັງເຄາະ ແລະເທັກໂນໂລຍີ quantum ແມ່ນຕົວຢ່າງຫຼັກຂອງການປະດິດສ້າງ, ແຈ້ງໂດຍວິທະຍາສາດ, ປະກົດຂຶ້ນໃນຈັງຫວະທີ່ບໍ່ເຄີຍມີມາກ່ອນ. ມັນສາມາດເປັນສິ່ງທ້າທາຍທີ່ຈະຄາດການເປັນລະບົບບໍ່ພຽງແຕ່ຄໍາຮ້ອງສະຫມັກຂອງເຂົາເຈົ້າ, ແຕ່ຍັງມີຜົນກະທົບຂອງເຂົາເຈົ້າ.
ການປະເມີນດ້ານສັງຄົມຂອງ AI ທົ່ວໄປເຊັ່ນຮູບແບບພາສາຂະຫນາດໃຫຍ່, ເຊິ່ງຄາດຄະເນເປັນຕົວແທນສ່ວນໃຫຍ່ຂອງເອກະສານສົນທະນານີ້, ເປັນຂົວທີ່ຈໍາເປັນພາຍໃນການສົນທະນາໃນປະຈຸບັນ - ບາງຄັ້ງກໍ່ເກີດຄວາມຕື່ນຕົກໃຈ, ບາງຄັ້ງກໍ່ບໍ່ເລິກເຊິ່ງພຽງພໍໃນຄວາມຄິດ - ແລະຫຼັກສູດທີ່ຈໍາເປັນຂອງ ການປະຕິບັດທີ່ພວກເຮົາສາມາດປະຕິບັດ. ISC ໝັ້ນໃຈວ່າ ຕ້ອງມີຂອບການວິເຄາະລະຫວ່າງການຍອມຮັບຂອງສັງຄົມຂອງເຕັກໂນໂລຊີໃໝ່ດັ່ງກ່າວ ແລະລະບຽບການທີ່ເປັນໄປໄດ້ເພື່ອອຳນວຍຄວາມສະດວກໃຫ້ແກ່ການສົນທະນາຫຼາຍຝ່າຍທີ່ຈຳເປັນເພື່ອຕັດສິນໃຈຢ່າງມີສະຕິ ແລະຄວາມຮັບຜິດຊອບກ່ຽວກັບວິທີປັບປຸງຜົນປະໂຫຍດທາງສັງຄົມຂອງເທັກໂນໂລຍີທີ່ກຳລັງຈະພົ້ນເດັ່ນຂຶ້ນຢ່າງໄວວານີ້.
ISC ແມ່ນເປີດໃຫ້ປະຕິກິລິຍາຈາກຊຸມຊົນຂອງພວກເຮົາໂດຍຜ່ານເອກະສານສົນທະນານີ້ເພື່ອປະເມີນວິທີການທີ່ດີທີ່ສຸດທີ່ຈະສືບຕໍ່ເປັນສ່ວນຫນຶ່ງຂອງແລະປະກອບສ່ວນໃນການໂຕ້ວາທີກ່ຽວກັບເຕັກໂນໂລຢີ.
Salvatore Aricò, CEO
ເອກະສານສົນທະນາ ISC
ກອບການປະເມີນການພັດທະນາຢ່າງວ່ອງໄວທາງດ້ານດິຈິຕອລ ແລະເຕັກໂນໂລຊີທີ່ກ່ຽວຂ້ອງ: AI, ຮູບແບບພາສາຂະໜາດໃຫຍ່ ແລະນອກເໜືອໄປຈາກນັ້ນ.
ເອກະສານສົນທະນາສະບັບນີ້ໃຫ້ໂຄງຮ່າງຂອງກອບເບື້ອງຕົ້ນເພື່ອແຈ້ງໃຫ້ການສົນທະນາທົ່ວໂລກແລະລະດັບຊາດທີ່ເກີດຂື້ນທີ່ກ່ຽວຂ້ອງກັບ AI.
ດາວໂຫລດລາຍງານNew! ອ່ານສະບັບປີ 2024 ສໍາລັບຜູ້ສ້າງນະໂຍບາຍທີ່ມີກອບການດາວໂຫຼດສໍາລັບອົງການຂອງທ່ານ.
ຄໍາແນະນໍາສໍາລັບຜູ້ສ້າງນະໂຍບາຍ: ການປະເມີນເຕັກໂນໂລຢີທີ່ພັດທະນາຢ່າງໄວວາລວມທັງ AI, ຮູບແບບພາສາຂະຫນາດໃຫຍ່ແລະອື່ນໆ.
ເອກະສານສົນທະນາສະບັບນີ້ໃຫ້ໂຄງຮ່າງຂອງກອບເບື້ອງຕົ້ນເພື່ອແຈ້ງໃຫ້ການສົນທະນາທົ່ວໂລກແລະລະດັບຊາດທີ່ເກີດຂື້ນທີ່ກ່ຽວຂ້ອງກັບ AI.
ເນື້ອໃນ
ການນໍາສະເຫນີ
ເຕັກໂນໂລຢີທີ່ພົ້ນເດັ່ນຂື້ນຢ່າງໄວວາສະເຫນີບັນຫາທີ່ທ້າທາຍໃນເວລາທີ່ມັນມາກັບການປົກຄອງແລະກົດລະບຽບທີ່ມີທ່າແຮງຂອງພວກເຂົາ. ນະໂຍບາຍແລະການໂຕ້ວາທີສາທາລະນະກ່ຽວກັບປັນຍາປະດິດ (AI) ແລະການນໍາໃຊ້ຂອງມັນໄດ້ນໍາເອົາບັນຫາເຫຼົ່ານີ້ໄປສູ່ຈຸດສຸມແຫຼມ. ໃນຂະນະທີ່ຫຼັກການທີ່ກວ້າງຂວາງສໍາລັບ AI ໄດ້ຖືກປະກາດໃຊ້ໂດຍ UNESCO, OECD ແລະອື່ນໆ, ແລະຍັງມີການສົນທະນາທີ່ຕັ້ງຫນ້າກ່ຽວກັບກົດລະບຽບຂອງໂລກຫຼືເຂດປົກຄອງຂອງເຕັກໂນໂລຢີ, ມັນມີຊ່ອງຫວ່າງທາງດ້ານ ontological ລະຫວ່າງການພັດທະນາຫຼັກການລະດັບສູງແລະການລວມເຂົ້າກັນໃນກົດລະບຽບ, ນະໂຍບາຍ, ວິທີການຄຸ້ມຄອງ ແລະການຄຸ້ມຄອງ. ນີ້ແມ່ນບ່ອນທີ່ຊຸມຊົນວິທະຍາສາດທີ່ບໍ່ແມ່ນລັດຖະບານສາມາດມີບົດບາດໂດຍສະເພາະ.
ມັນໄດ້ຖືກສະເຫນີໂດຍນັກວິຊາການແລະຜູ້ຊ່ຽວຊານດ້ານນະໂຍບາຍຈໍານວນຫນຶ່ງທີ່ສະພາວິທະຍາສາດສາກົນ (ISC) - ດ້ວຍສະມາຊິກຫຼາຍຝ່າຍຈາກວິທະຍາສາດສັງຄົມແລະທໍາມະຊາດ - ສ້າງຂະບວນການຜະລິດແລະຮັກສາກອບການອະທິບາຍ / ບັນຊີລາຍການຄວາມສ່ຽງ, ຜົນປະໂຫຍດ, ໄພຂົ່ມຂູ່ ແລະໂອກາດທີ່ກ່ຽວຂ້ອງກັບເຕັກໂນໂລຊີດິຈິຕອລທີ່ເຄື່ອນຍ້າຍຢ່າງວ່ອງໄວ, ລວມທັງ – ແຕ່ບໍ່ຈໍາກັດ – AI. ຈຸດປະສົງຂອງລາຍການກວດກາແມ່ນເພື່ອແຈ້ງໃຫ້ຜູ້ມີສ່ວນກ່ຽວຂ້ອງທັງໝົດ - ລວມທັງລັດຖະບານ, ຜູ້ເຈລະຈາການຄ້າ, ຜູ້ຄວບຄຸມ, ສັງຄົມພົນລະເຮືອນ ແລະ ອຸດສາຫະກໍາ - ສະຖານະການໃນອະນາຄົດທີ່ເປັນໄປໄດ້, ແລະກໍານົດວິທີການທີ່ເຂົາເຈົ້າອາດຈະພິຈາລະນາໂອກາດ, ຜົນປະໂຫຍດ, ຄວາມສ່ຽງແລະບັນຫາອື່ນໆ.
ຜົນໄດ້ຮັບຈະບໍ່ເຮັດຫນ້າທີ່ເປັນອົງການການປະເມີນ, ແຕ່ເປັນກອບການວິເຄາະທີ່ປັບຕົວແລະພັດທະນາເຊິ່ງສາມາດສະຫນັບສະຫນູນຂະບວນການປະເມີນແລະກົດລະບຽບທີ່ອາດຈະຖືກພັດທະນາໂດຍຜູ້ມີສ່ວນຮ່ວມ, ລວມທັງລັດຖະບານແລະລະບົບຫຼາຍຝ່າຍ. ຂອບການວິເຄາະໃດນຶ່ງຄວນຖືກພັດທະນາເປັນເອກະລາດຈາກການຮຽກຮ້ອງຂອງລັດຖະບານ ແລະອຸດສາຫະກໍາ, ໂດຍໃຫ້ຜົນປະໂຫຍດທີ່ເຂົ້າໃຈໄດ້. ມັນຍັງຕ້ອງເປັນຫຼາຍສ່ວນສູງສຸດໃນທັດສະນະຂອງມັນ, ດັ່ງນັ້ນຈຶ່ງກວມເອົາທຸກດ້ານຂອງເຕັກໂນໂລຢີແລະຜົນສະທ້ອນຂອງມັນ.
ເອກະສານສົນທະນາສະບັບນີ້ໃຫ້ໂຄງຮ່າງຂອງກອບເບື້ອງຕົ້ນເພື່ອແຈ້ງໃຫ້ການສົນທະນາທົ່ວໂລກແລະລະດັບຊາດທີ່ເກີດຂື້ນທີ່ກ່ຽວຂ້ອງກັບ AI.
ຄວາມເປັນມາ: ເປັນຫຍັງຕ້ອງເປັນກອບການວິເຄາະ?
ການປະກົດຕົວຢ່າງໄວວາຂອງເຕັກໂນໂລຢີທີ່ມີຄວາມຊັບຊ້ອນແລະຜົນສະທ້ອນຂອງ AI ແມ່ນການຮຽກຮ້ອງຜົນປະໂຫຍດອັນໃຫຍ່ຫຼວງຫຼາຍ. ຢ່າງໃດກໍ່ຕາມ, ມັນຍັງເຮັດໃຫ້ເກີດຄວາມຢ້ານກົວຕໍ່ຄວາມສ່ຽງທີ່ສໍາຄັນ, ຈາກບຸກຄົນໄປສູ່ລະດັບຍຸດທະສາດທາງດ້ານພູມສາດ. ການສົນທະນາສ່ວນໃຫຍ່ມີແນວໂນ້ມທີ່ຈະເກີດຂຶ້ນໃນຕອນທ້າຍສຸດຂອງທັດສະນະ, ແລະວິທີການປະຕິບັດຫຼາຍແມ່ນຈໍາເປັນ. ເຕັກໂນໂລຊີ AI ຈະສືບຕໍ່ພັດທະນາແລະປະຫວັດສາດສະແດງໃຫ້ເຫັນວ່າເກືອບທຸກເຕັກໂນໂລຊີມີທັງການນໍາໃຊ້ທີ່ເປັນປະໂຫຍດແລະເປັນອັນຕະລາຍ. ຄໍາຖາມແມ່ນ, ດັ່ງນັ້ນ: ພວກເຮົາສາມາດບັນລຸຜົນໄດ້ຮັບທີ່ເປັນປະໂຫຍດຈາກເຕັກໂນໂລຢີນີ້ໄດ້ແນວໃດ, ໃນຂະນະທີ່ຫຼຸດຜ່ອນຄວາມສ່ຽງຂອງຜົນສະທ້ອນທີ່ເປັນອັນຕະລາຍ, ບາງອັນອາດມີຢູ່ໃນຂະຫນາດ?
ອະນາຄົດແມ່ນມີຄວາມບໍ່ແນ່ນອນສະເໝີ, ແຕ່ມີສຽງທີ່ໜ້າເຊື່ອຖື ແລະ ຊ່ຽວຊານຢ່າງພຽງພໍກ່ຽວກັບ AI ແລະ AI ການຜະລິດເພື່ອຊຸກຍູ້ໃຫ້ມີວິທີການປ້ອງກັນທີ່ຂ້ອນຂ້າງ. ນອກຈາກນັ້ນ, ວິທີການລະບົບແມ່ນຈໍາເປັນ, ເພາະວ່າ AI ເປັນຊັ້ນຂອງເຕັກໂນໂລຢີທີ່ມີການນໍາໃຊ້ຢ່າງກວ້າງຂວາງແລະການນໍາໃຊ້ໂດຍຜູ້ໃຊ້ຫຼາຍປະເພດ. ນີ້ຫມາຍຄວາມວ່າສະພາບການຢ່າງເຕັມທີ່ຕ້ອງໄດ້ຮັບການພິຈາລະນາຜົນກະທົບຂອງ AI ສໍາລັບບຸກຄົນ, ຊີວິດສັງຄົມ, ຊີວິດພົນລະເມືອງ, ຊີວິດສັງຄົມແລະໃນສະພາບການຂອງໂລກ.
ບໍ່ເຫມືອນກັບເຕັກໂນໂລຊີທີ່ຜ່ານມາຫຼາຍທີ່ສຸດ, ດິຈິຕອນແລະເຕັກໂນໂລຊີທີ່ກ່ຽວຂ້ອງມີໄລຍະເວລາສັ້ນຫຼາຍຈາກການພັດທະນາກັບການປ່ອຍ, ສ່ວນໃຫຍ່ແມ່ນຂັບເຄື່ອນໂດຍຜົນປະໂຫຍດຂອງບໍລິສັດການຜະລິດຫຼືອົງການຕ່າງໆ. AI ແມ່ນແຜ່ລາມຢ່າງໄວວາ; ຄຸນສົມບັດບາງຢ່າງອາດຈະເຫັນໄດ້ຊັດເຈນຫຼັງຈາກປ່ອຍອອກມາ, ແລະເທັກໂນໂລຢີສາມາດມີທັງການໃຊ້ງານທີ່ໂຫດຮ້າຍ ແລະ ເມດຕາ. ຂະຫນາດມູນຄ່າທີ່ສໍາຄັນຈະມີອິດທິພົນຕໍ່ການຮັບຮູ້ຂອງການນໍາໃຊ້ໃດໆ. ນອກຈາກນັ້ນ, ອາດຈະມີຄວາມສົນໃຈທາງດ້ານພູມສາດ-ຍຸດທະສາດໃນການຫຼິ້ນ.
ມາຮອດປະຈຸ, ລະບຽບການຂອງເຕັກໂນໂລຊີ virtual ໄດ້ພົບເຫັນສ່ວນໃຫຍ່ໂດຍຜ່ານທັດສະນະຂອງ "ຫຼັກການ" ແລະການປະຕິບັດຕາມຄວາມສະຫມັກໃຈ. ຫວ່າງມໍ່ໆມານີ້, ການສົນທະນາໄດ້ຫັນໄປສູ່ບັນຫາການປົກຄອງປະເທດແລະຫຼາຍຝ່າຍ, ໃນນັ້ນມີການນຳໃຊ້ກົນໄກການຄຸ້ມຄອງແລະກົນໄກນະໂຍບາຍອື່ນໆ. ການຮຽກຮ້ອງທີ່ເຮັດສໍາລັບຫຼືຕໍ່ຕ້ານ AI ມັກຈະເປັນ hyperbolic ແລະ - ມີລັກສະນະຂອງເຕັກໂນໂລຢີ - ຍາກທີ່ຈະປະເມີນ. ການສ້າງລະບົບລະບຽບການດ້ານເທັກໂນໂລຍີລະດັບໂລກ ຫຼືລະດັບຊາດທີ່ມີປະສິດຕິຜົນຈະເປັນສິ່ງທີ່ທ້າທາຍ, ແລະຫຼາຍຂັ້ນຕອນຂອງການຕັດສິນໃຈທີ່ມີຂໍ້ມູນຄວາມສ່ຽງຈະມີຄວາມຈໍາເປັນຕາມລະບົບຕ່ອງໂສ້, ຈາກຜູ້ປະດິດເຖິງຜູ້ຜະລິດ, ຜູ້ໃຊ້, ກັບລັດຖະບານ ແລະລະບົບຫຼາຍຝ່າຍ.
ໃນຂະນະທີ່ຫຼັກການລະດັບສູງໄດ້ຮັບການປະກາດໃຊ້ໂດຍອົງການ UNESCO, OECD ແລະຄະນະກໍາມະການເອີຣົບ, ໃນບັນດາສິ່ງອື່ນໆ, ແລະການສົນທະນາລະດັບສູງຕ່າງໆແມ່ນກໍາລັງດໍາເນີນກ່ຽວກັບບັນຫາກົດລະບຽບທີ່ມີທ່າແຮງ, ມັນມີຊ່ອງຫວ່າງຂະຫນາດໃຫຍ່ລະຫວ່າງຫຼັກການດັ່ງກ່າວແລະການຄຸ້ມຄອງຫຼືລະບຽບການ. ການຈັດໝວດໝູ່ຂອງການພິຈາລະນາທີ່ຜູ້ຄວບຄຸມອາດຈະຕ້ອງພິຈາລະນາແມ່ນຫຍັງ? ການຈັດວາງຂອບແຄບຈະບໍ່ສະຫລາດ, ເນື່ອງຈາກມີຜົນສະທ້ອນຢ່າງກວ້າງຂວາງຂອງເຕັກໂນໂລຊີເຫຼົ່ານີ້. ທ່າແຮງດັ່ງກ່າວໄດ້ເປັນຫົວເລື່ອງຂອງຄໍາຄິດຄໍາເຫັນຫຼາຍ, ທັງໃນທາງບວກແລະທາງລົບ.
ການພັດທະນາຂອງກອບການວິເຄາະ
ISC ແມ່ນ NGO ລະດັບໂລກຕົ້ນຕໍທີ່ປະສົມປະສານວິທະຍາສາດທໍາມະຊາດແລະສັງຄົມ. ການເຂົ້າເຖິງທົ່ວໂລກແລະລະບຽບວິໄນຫມາຍຄວາມວ່າມັນໄດ້ຖືກວາງໄວ້ຢ່າງດີທີ່ຈະສ້າງຄໍາແນະນໍາທີ່ເປັນເອກະລາດແລະທົ່ວໂລກທີ່ກ່ຽວຂ້ອງເພື່ອແຈ້ງທາງເລືອກທີ່ສັບສົນລ່ວງຫນ້າ, ໂດຍສະເພາະຍ້ອນວ່າສຽງໃນປະຈຸບັນໃນເວທີນີ້ແມ່ນມາຈາກອຸດສາຫະກໍາຫຼືຈາກອໍານາດເຕັກໂນໂລຢີທີ່ສໍາຄັນ. ຫຼັງຈາກການສົນທະນາຢ່າງກວ້າງຂວາງໃນເດືອນທີ່ຜ່ານມາ, ລວມທັງການພິຈາລະນາຂະບວນການປະເມີນຜົນທີ່ບໍ່ແມ່ນລັດຖະບານ, ISC ໄດ້ສະຫຼຸບວ່າການປະກອບສ່ວນທີ່ເປັນປະໂຫຍດທີ່ສຸດແມ່ນການຜະລິດແລະຮັກສາກອບການວິເຄາະທີ່ດັດແປງທີ່ສາມາດຖືກນໍາໃຊ້ເປັນພື້ນຖານສໍາລັບການສົນທະນາແລະການຕັດສິນໃຈໂດຍ. ພາກສ່ວນກ່ຽວຂ້ອງທັງໝົດ, ລວມທັງໃນໄລຍະຂະບວນການປະເມີນຢ່າງເປັນທາງການທີ່ເກີດຂຶ້ນ.
ໂຄງຮ່າງການນີ້ຈະໃຊ້ຮູບແບບຂອງບັນຊີລາຍການກວດກາລວມທີ່ສາມາດນໍາໃຊ້ໄດ້ໂດຍທັງລັດຖະບານແລະສະຖາບັນທີ່ບໍ່ຂຶ້ນກັບລັດຖະບານ. ກອບການກໍານົດແລະຂຸດຄົ້ນທ່າແຮງຂອງເຕັກໂນໂລຢີເຊັ່ນ AI ແລະອະນຸພັນຂອງມັນໂດຍຜ່ານທັດສະນະທີ່ກວ້າງຂວາງທີ່ກວມເອົາສຸຂະພາບຂອງມະນຸດແລະສັງຄົມ, ເຊັ່ນດຽວກັນກັບປັດໃຈພາຍນອກ, ເຊັ່ນເສດຖະກິດ, ການເມືອງ, ສະພາບແວດລ້ອມແລະຄວາມປອດໄພ. ບາງດ້ານຂອງລາຍການກວດສອບອາດຈະມີຄວາມກ່ຽວຂ້ອງຫຼາຍກ່ວາອື່ນໆ, ຂຶ້ນກັບສະພາບການ, ແຕ່ການຕັດສິນໃຈທີ່ດີກວ່າຈະເປັນໄປໄດ້ຖ້າໂດເມນທັງຫມົດຖືກພິຈາລະນາ. ນີ້ແມ່ນມູນຄ່າທີ່ເກີດຂຶ້ນຂອງວິທີການກວດສອບໄດ້.
ໂຄງຮ່າງການທີ່ສະເໜີມາແມ່ນໄດ້ມາຈາກວຽກງານ ແລະແນວຄິດທີ່ຜ່ານມາ, ລວມທັງບົດລາຍງານສຸຂະພາບດີຈີຕອນຂອງເຄືອຂ່າຍສາກົນເພື່ອການໃຫ້ຄໍາປຶກສາດ້ານວິທະຍາສາດຂອງລັດຖະບານ (INGSA).1 ແລະຂອບການຈັດປະເພດ AI ຂອງ OECD2 ເພື່ອນໍາສະເຫນີຈໍານວນທັງຫມົດຂອງໂອກາດ, ຄວາມສ່ຽງແລະຜົນກະທົບຂອງ AI. ຜະລິດຕະພັນທີ່ຜ່ານມາເຫຼົ່ານີ້ຖືກຈໍາກັດຫຼາຍກວ່າໃນຄວາມຕັ້ງໃຈຂອງພວກເຂົາຍ້ອນເວລາແລະສະພາບການຂອງພວກເຂົາ, ມັນຈໍາເປັນຕ້ອງມີກອບການຄອບຄຸມທີ່ນໍາສະເຫນີບັນຫາຢ່າງເຕັມທີ່ທັງໃນໄລຍະສັ້ນແລະໄລຍະຍາວ.
ໃນຂະນະທີ່ພັດທະນາສໍາລັບການພິຈາລະນາຂອງ AI, ກອບການວິເຄາະນີ້ສາມາດຖືກນໍາໃຊ້ກັບເຕັກໂນໂລຢີທີ່ພົ້ນເດັ່ນຂື້ນຢ່າງໄວວາ. ບັນຫາດັ່ງກ່າວໄດ້ຖືກແບ່ງອອກຢ່າງກວ້າງຂວາງເປັນປະເພດຕໍ່ໄປນີ້ເພື່ອກວດກາຕື່ມອີກ:
ບັນຊີລາຍຊື່ຂອງການພິຈາລະນາສໍາລັບແຕ່ລະປະເພດຂ້າງເທິງແມ່ນລວມພ້ອມກັບໂອກາດແລະຜົນສະທ້ອນຂອງພວກເຂົາ. ບາງຄົນມີຄວາມກ່ຽວຂ້ອງສໍາລັບຕົວຢ່າງສະເພາະຫຼືຄໍາຮ້ອງສະຫມັກຂອງ AI ໃນຂະນະທີ່ຄົນອື່ນແມ່ນທົ່ວໄປແລະບໍ່ຫນ້າເຊື່ອຂອງເວທີຫຼືການນໍາໃຊ້. ບໍ່ມີການພິຈາລະນາອັນດຽວທີ່ລວມຢູ່ໃນນີ້ຄວນຈະຖືກຖືວ່າເປັນບູລິມະສິດແລະດັ່ງນັ້ນ, ທັງຫມົດຄວນໄດ້ຮັບການກວດກາ.
ກອບນີ້ຖືກນໍາໃຊ້ແນວໃດ?
ໂຄງຮ່າງການນີ້ສາມາດຖືກນໍາໃຊ້ໃນ, ແຕ່ບໍ່ຈໍາກັດ, ວິທີການດັ່ງຕໍ່ໄປນີ້:
ຕາຕະລາງຕໍ່ໄປນີ້ແມ່ນການສ້າງຂະໜາດຕົ້ນໆຂອງກອບການວິເຄາະ. ອີງຕາມເທກໂນໂລຍີແລະການນໍາໃຊ້ຂອງມັນ, ບາງອົງປະກອບຈະມີຄວາມກ່ຽວຂ້ອງຫຼາຍກ່ວາສິ່ງອື່ນໆ. ຕົວຢ່າງໄດ້ຖືກສະຫນອງໃຫ້ສະແດງໃຫ້ເຫັນວ່າເປັນຫຍັງແຕ່ລະໂດເມນອາດຈະສໍາຄັນ; ໃນສະພາບການ, ໂຄງຮ່າງການຈະຮຽກຮ້ອງໃຫ້ມີການຂະຫຍາຍຕົວທີ່ກ່ຽວຂ້ອງກັບສະພາບການ. ມັນຍັງມີຄວາມສໍາຄັນທີ່ຈະຈໍາແນກລະຫວ່າງການພັດທະນາເວທີແລະບັນຫາທົ່ວໄປທີ່ອາດຈະເກີດຂື້ນໃນລະຫວ່າງຄໍາຮ້ອງສະຫມັກສະເພາະ.
ຂະຫນາດທີ່ຈະພິຈາລະນາໃນເວລາທີ່ການປະເມີນເຕັກໂນໂລຢີໃຫມ່
| ຮ່າງເບື້ອງຕົ້ນຂອງຂະຫນາດທີ່ອາດຈະຕ້ອງພິຈາລະນາໃນເວລາທີ່ການປະເມີນເຕັກໂນໂລຢີໃຫມ່ | ||
| ຂະຫນາດຂອງຜົນກະທົບ | Criteria | ຕົວຢ່າງຂອງວິທີການນີ້ອາດຈະຖືກສະທ້ອນໃຫ້ເຫັນໃນການວິເຄາະ |
| ສ່ວນບຸກຄົນ / ຕົນເອງ | ຄວາມສາມາດ AI ຂອງຜູ້ໃຊ້ | ຄວາມສາມາດ ແລະຮູ້ຄຸນສົມບັດຂອງລະບົບແມ່ນຜູ້ໃຊ້ທີ່ອາດຈະພົວພັນກັບລະບົບແນວໃດ? ພວກເຂົາຈະໃຫ້ຂໍ້ມູນຜູ້ໃຊ້ທີ່ກ່ຽວຂ້ອງແລະຄໍາເຕືອນແນວໃດ? |
| ພາກສ່ວນກ່ຽວຂ້ອງທີ່ໄດ້ຮັບຜົນກະທົບ | ໃຜເປັນຜູ້ມີສ່ວນກ່ຽວຂ້ອງຕົ້ນຕໍທີ່ຈະໄດ້ຮັບຜົນກະທົບຈາກລະບົບ (ເຊັ່ນ: ບຸກຄົນ, ຊຸມຊົນ, ຜູ້ມີຄວາມສ່ຽງ, ພະນັກງານໃນຂະແຫນງການ, ເດັກນ້ອຍ, ຜູ້ສ້າງນະໂຍບາຍ, ຜູ້ຊ່ຽວຊານ)? | |
| ທາງເລືອກ | ຜູ້ໃຊ້ສະຫນອງໃຫ້ມີທາງເລືອກທີ່ຈະເລືອກອອກຈາກລະບົບ; ພວກເຂົາຄວນໄດ້ຮັບໂອກາດທີ່ຈະທ້າທາຍຫຼືແກ້ໄຂຜົນຜະລິດບໍ? | |
| ຄວາມສ່ຽງຕໍ່ສິດທິມະນຸດ ແລະຄຸນຄ່າປະຊາທິປະໄຕ | ລະບົບສາມາດສົ່ງຜົນກະທົບ (ແລະໃນທິດທາງໃດ) ຕໍ່ສິດທິມະນຸດ, ລວມທັງ, ແຕ່ບໍ່ຈໍາກັດ, ຄວາມເປັນສ່ວນຕົວ, ສິດເສລີພາບໃນການສະແດງ, ຄວາມຍຸດຕິທໍາ, ຄວາມສ່ຽງຕໍ່ການຈໍາແນກ, ແລະອື່ນໆ? | |
| ຜົນກະທົບທີ່ອາດມີຕໍ່ສຸຂະພາບຂອງປະຊາຊົນ | ລະບົບສາມາດສົ່ງຜົນກະທົບຕໍ່ (ແລະໃນທິດທາງໃດ) ສະຫວັດດີການຂອງຜູ້ໃຊ້ສ່ວນບຸກຄົນ (ເຊັ່ນ: ຄຸນນະພາບວຽກ, ການສຶກສາ, ການພົວພັນທາງສັງຄົມ, ສຸຂະພາບຈິດ, ຕົວຕົນ, ສະພາບແວດລ້ອມ)? | |
| ທ່າແຮງສໍາລັບການຍົກຍ້າຍແຮງງານຂອງມະນຸດ | ມີທ່າແຮງສໍາລັບລະບົບທີ່ຈະອັດຕະໂນມັດວຽກງານຫຼືຫນ້າທີ່ທີ່ຖືກປະຕິບັດໂດຍມະນຸດບໍ? ຖ້າເປັນດັ່ງນັ້ນ, ຜົນກະທົບທາງລຸ່ມແມ່ນຫຍັງ? | |
| ທ່າແຮງສຳລັບຕົວຕົນ, ຄຸນຄ່າ ຫຼືການໝູນໃຊ້ຄວາມຮູ້ | ລະບົບຖືກອອກແບບເພື່ອ ຫຼືມີທ່າແຮງທີ່ຈະຈັດການຕົວຕົນ ຫຼືຄຸນຄ່າຂອງຜູ້ໃຊ້ທີ່ຕັ້ງໄວ້, ຫຼືເຜີຍແຜ່ຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ? ມີທ່າແຮງສໍາລັບການຮຽກຮ້ອງຄວາມຊ່ຽວຊານທີ່ບໍ່ຖືກຕ້ອງຫຼືບໍ່ສາມາດກວດສອບໄດ້ບໍ? | |
| ມາດຕະການຂອງມູນຄ່າຂອງຕົນເອງ | ມີຄວາມກົດດັນທີ່ຈະສະແດງຕົວຕົນທີ່ເໝາະສົມບໍ? ອັດຕະໂນມັດສາມາດທົດແທນຄວາມຮູ້ສຶກຂອງການປະຕິບັດສ່ວນບຸກຄົນໄດ້ບໍ? ມີຄວາມກົດດັນທີ່ຈະແຂ່ງຂັນກັບລະບົບໃນບ່ອນເຮັດວຽກບໍ? ຊື່ສຽງສ່ວນບຸກຄົນຖືກສ້າງຂື້ນເພື່ອປົກປ້ອງຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ? | |
| ຄວາມເປັນສ່ວນຕົວ | ມີຄວາມຮັບຜິດຊອບທີ່ແຜ່ຂະຫຍາຍສໍາລັບການປົກປ້ອງຄວາມເປັນສ່ວນຕົວແລະມີການສົມມຸດຕິຖານໃດໆກ່ຽວກັບວິທີການນໍາໃຊ້ຂໍ້ມູນສ່ວນຕົວບໍ? | |
| ເອກະລາດ | ລະບົບສາມາດສົ່ງຜົນກະທົບຕໍ່ຄວາມເປັນເອກະລາດຂອງມະນຸດໂດຍການສ້າງຄວາມເພິ່ງພໍໃຈຕໍ່ເຕັກໂນໂລຢີໂດຍຜູ້ໃຊ້ສຸດທ້າຍບໍ? | |
| ການພັດທະນາມະນຸດ | ຜົນກະທົບຕໍ່ການໄດ້ມາຂອງທັກສະທີ່ສໍາຄັນສໍາລັບການພັດທະນາມະນຸດເຊັ່ນ: ຫນ້າທີ່ບໍລິຫານ, ທັກສະລະຫວ່າງບຸກຄົນ, ການປ່ຽນແປງເວລາເອົາໃຈໃສ່ຜົນກະທົບຕໍ່ການຮຽນຮູ້, ການພັດທະນາບຸກຄະລິກກະພາບ, ຄວາມກັງວົນກ່ຽວກັບສຸຂະພາບຈິດ, ແລະອື່ນໆ? | |
| ການດູແລສຸຂະພາບສ່ວນບຸກຄົນ | ມີການຮຽກຮ້ອງການແກ້ໄຂການດູແລສຸຂະພາບສ່ວນບຸກຄົນບໍ? ຖ້າເປັນດັ່ງນັ້ນ, ພວກມັນຖືກກວດສອບມາດຕະຖານກົດລະບຽບບໍ? | |
| ສຸຂະພາບຈິດ | ມີຄວາມສ່ຽງຕໍ່ຄວາມກັງວົນທີ່ເພີ່ມຂຶ້ນ, ຄວາມໂດດດ່ຽວຫຼືບັນຫາສຸຂະພາບຈິດອື່ນໆ, ຫຼືເຕັກໂນໂລຢີສາມາດຫຼຸດຜ່ອນຜົນກະທົບດັ່ງກ່າວໄດ້ບໍ? | |
| ວິວັດທະນາການຂອງມະນຸດ | ເຕັກໂນໂລຢີສາມາດນໍາໄປສູ່ການປ່ຽນແປງໃນວິວັດທະນາການຂອງມະນຸດບໍ? | |
| ຂະຫນາດຂອງຜົນກະທົບ | Criteria | ລາຍລະອຽດ |
| ສັງຄົມ/ຊີວິດສັງຄົມ | ຄຸນຄ່າຂອງສັງຄົມ | ລະບົບດັ່ງກ່າວມີການປ່ຽນແປງພື້ນຖານຂອງສັງຄົມຫຼືເຮັດໃຫ້ຄວາມເປັນປົກກະຕິຂອງແນວຄວາມຄິດທີ່ເຄີຍຖືວ່າເປັນການຕໍ່ຕ້ານສັງຄົມ, ຫຼືມັນລະເມີດຄຸນຄ່າຂອງສັງຄົມຂອງວັດທະນະທໍາທີ່ມັນຖືກນໍາໃຊ້? |
| ການພົວພັນທາງສັງຄົມ | ມີຜົນກະທົບກ່ຽວກັບການຕິດຕໍ່ຂອງມະນຸດທີ່ມີຄວາມຫມາຍ, ລວມທັງຄວາມສໍາພັນທາງອາລົມບໍ? | |
| ຄວາມທ່ຽງທໍາ | ຄໍາຮ້ອງສະຫມັກ / ເຕັກໂນໂລຢີມີແນວໂນ້ມທີ່ຈະຫຼຸດຜ່ອນຫຼືເສີມຂະຫຍາຍຄວາມບໍ່ສະເຫມີພາບ (ເຊັ່ນ: ເສດຖະກິດ, ສັງຄົມ, ການສຶກສາ, ພູມສາດ)? | |
| ສຸຂະພາບຂອງປະຊາກອນ | ມີທ່າແຮງສໍາລັບລະບົບທີ່ຈະກ້າວຫນ້າຫຼືທໍາລາຍຄວາມຕັ້ງໃຈດ້ານສຸຂະພາບຂອງປະຊາກອນບໍ? | |
| ການສະແດງອອກທາງດ້ານວັດທະນະທໍາ | ການເພີ່ມຂຶ້ນຂອງຄວາມເໝາະສົມທາງດ້ານວັດທະນະທໍາ ຫຼືການຈໍາແນກແມ່ນເປັນໄປໄດ້ ຫຼືຍາກທີ່ຈະແກ້ໄຂ? ການເອື່ອຍອີງໃສ່ລະບົບໃນການຕັດສິນໃຈມີທ່າແຮງທີ່ຈະຍົກເວັ້ນ ຫຼື ຫຍໍ້ສ່ວນຕ່າງໆຂອງສັງຄົມບໍ? | |
| ການສຶກສາສາທາລະນະ | ມີຜົນກະທົບຕໍ່ບົດບາດຂອງຄູ ຫຼືສະຖາບັນການສຶກສາບໍ? ລະບົບເນັ້ນຫນັກຫຼືຫຼຸດຜ່ອນຄວາມບໍ່ສະເຫມີພາບລະຫວ່າງນັກຮຽນແລະການແບ່ງແຍກດິຈິຕອນບໍ? ຄຸນຄ່າພາຍໃນຂອງຄວາມຮູ້ ຫຼືຄວາມເຂົ້າໃຈທີ່ວິພາກວິຈານແມ່ນກ້າວໜ້າ ຫຼືຖືກທຳລາຍບໍ? | |
| ຄວາມຈິງທີ່ບິດເບືອນ | ວິທີການທີ່ພວກເຮົາໃຊ້ເພື່ອເຂົ້າໃຈສິ່ງທີ່ເປັນຄວາມຈິງແມ່ນຍັງໃຊ້ໄດ້ບໍ? ຄວາມຮັບຮູ້ຂອງຄວາມເປັນຈິງຖືກຫຼຸດຫນ້ອຍລົງບໍ? | |
| ສະພາບເສດຖະກິດ (ການຄ້າ) | ຂະແໜງອຸດສາຫະກຳ | ຂະແໜງອຸດສາຫະກຳໃດຖືກນຳໃຊ້ໃນລະບົບ (ເຊັ່ນ: ການເງິນ, ກະສິກຳ, ການດູແລສຸຂະພາບ, ການສຶກສາ, ປ້ອງກັນຊາດ)? |
| ຮູບແບບທຸລະກິດ | ລະບົບການຈ້າງງານຢູ່ໃນຫນ້າທີ່ທຸລະກິດໃດ, ແລະໃນຄວາມສາມາດໃດ? ລະບົບຖືກນໍາໃຊ້ຢູ່ໃສ (ເອກະຊົນ, ສາທາລະນະ, ບໍ່ຫວັງຜົນກໍາໄລ)? | |
| ຜົນກະທົບຕໍ່ກິດຈະກໍາທີ່ສໍາຄັນ | ການຂັດຂວາງການເຮັດວຽກຫຼືກິດຈະກໍາຂອງລະບົບຈະສົ່ງຜົນກະທົບຕໍ່ການບໍລິການທີ່ສໍາຄັນຫຼືໂຄງສ້າງພື້ນຖານທີ່ສໍາຄັນບໍ? | |
| ລົມຫາຍໃຈຂອງການປະຕິບັດ | ລະບົບຖືກນຳໃຊ້ແນວໃດ (ແຄບໆພາຍໃນອົງກອນທຽບກັບການແຜ່ຂະຫຍາຍທົ່ວປະເທດ/ສາກົນ)? | |
| ການເຕີບໂຕທາງດ້ານເຕັກນິກ (TRL) | ລະບົບຈະໃຫຍ່ທາງດ້ານເຕັກນິກແນວໃດ? | |
| ອະທິປະໄຕດ້ານເຕັກໂນໂລຢີ | ເຕັກໂນໂລຊີເຮັດໃຫ້ຄວາມເຂັ້ມແຂງຂອງອະທິປະໄຕເຕັກໂນໂລຊີຫຼາຍຂຶ້ນ. | |
| ການແຈກຢາຍລາຍຮັບ ແລະ ອັດຕາເງິນເຟີ້ແຫ່ງຊາດ | ພາລະບົດບາດຫຼັກຂອງລັດອະທິປະໄຕສາມາດຖືກຫຼຸດຫນ້ອຍລົງ (ເຊັ່ນ: ທະນາຄານສະຫງວນ)? ຄວາມສາມາດຂອງລັດເພື່ອຕອບສະຫນອງຄວາມຄາດຫວັງຂອງພົນລະເມືອງແລະຜົນສະທ້ອນ (ເຊັ່ນ: ສັງຄົມ, ເສດຖະກິດ, ການເມືອງ) ຈະກ້າວຫນ້າຫຼືຫຼຸດລົງ? | |
| ຂະຫນາດຂອງຜົນກະທົບ | Criteria | ລາຍລະອຽດ |
| ຊີວິດພົນລະເມືອງ | ການປົກຄອງ ແລະການບໍລິການສາທາລະນະ | ກົນໄກການຄຸ້ມຄອງແລະລະບົບການຄຸ້ມຄອງທົ່ວໂລກຈະໄດ້ຮັບຜົນກະທົບໃນທາງບວກຫຼືທາງລົບ? |
| ຂ່າວສື່ມວນຊົນ | ການສົນທະນາສາທາລະນະມີແນວໂນ້ມທີ່ຈະກາຍເປັນຫຼາຍຫຼືຫນ້ອຍ polarized ແລະ entrenched ໃນລະດັບປະຊາກອນ? ຈະມີຜົນກະທົບກ່ຽວກັບລະດັບຄວາມໄວ້ວາງໃຈໃນສື່ມວນຊົນບໍ? ຈັນຍາບັນຂອງນັກຂ່າວທຳມະດາ ແລະມາດຕະຖານຄວາມຊື່ສັດຈະໄດ້ຮັບຜົນກະທົບຕື່ມອີກບໍ? | |
| Rule of law | ຈະມີຜົນກະທົບກ່ຽວກັບຄວາມສາມາດໃນການກໍານົດບຸກຄົນຫຼືອົງການຈັດຕັ້ງທີ່ຈະຮັບຜິດຊອບ (ເຊັ່ນ: ຄວາມຮັບຜິດຊອບປະເພດໃດແດ່ທີ່ຈະມອບຫມາຍໃຫ້ລະບົບວິທີການສໍາລັບຜົນໄດ້ຮັບທາງລົບ)? ອັນນີ້ສ້າງການສູນເສຍອະທິປະໄຕ (ເຊັ່ນ: ສິ່ງແວດລ້ອມ, ງົບປະມານ, ນະໂຍບາຍສັງຄົມ, ຈັນຍາບັນ) ບໍ? | |
| ການເມືອງ ແລະ ຄວາມສາມັກຄີ | ມີຄວາມເປັນໄປໄດ້ຂອງທັດສະນະທາງດ້ານການເມືອງທີ່ຍຶດຫມັ້ນຫຼາຍແລະມີໂອກາດຫນ້ອຍສໍາລັບການສ້າງຄວາມເຫັນດີນໍາບໍ? ມີຄວາມເປັນໄປໄດ້ຂອງກຸ່ມຄົນດ້ອຍໂອກາດຕື່ມອີກບໍ? ຮູບແບບການເມືອງຂອງຝ່າຍຄ້ານມີຄວາມເປັນໄປໄດ້ຫຼາຍ ຫຼືໜ້ອຍບໍ? | |
| ສະພາບການທາງພູມສາດ-ຍຸດທະສາດ/ທາງພູມສາດ-ການເມືອງ | ການເຝົ້າລະວັງຄວາມຊັດເຈນ | ລະບົບໄດ້ຖືກຝຶກອົບຮົມກ່ຽວກັບຂໍ້ມູນພຶດຕິກໍາແລະຊີວະວິທະຍາຂອງບຸກຄົນ, ແລະຖ້າເປັນດັ່ງນັ້ນ, ພວກເຂົາສາມາດຖືກນໍາໃຊ້ເພື່ອຂູດຮີດບຸກຄົນຫຼືກຸ່ມ? |
| ອານານິຄົມດິຈິຕອນ | ຜູ້ກ່ຽວຂ້ອງຂອງລັດ ຫຼື ທີ່ບໍ່ແມ່ນຂອງລັດສາມາດນຳໃຊ້ລະບົບ ແລະ ຂໍ້ມູນເພື່ອເຂົ້າໃຈ ແລະ ຄວບຄຸມປະຊາກອນ ແລະ ລະບົບນິເວດຂອງປະເທດອື່ນ, ຫຼື ທຳລາຍການຄວບຄຸມອຳນາດການປົກຄອງບໍ? | |
| ການແຂ່ງຂັນທາງດ້ານພູມສາດ-ການເມືອງ | ລະບົບຜົນກະທົບຕໍ່ການແຂ່ງຂັນລະຫວ່າງປະເທດແລະເວທີເຕັກໂນໂລຢີສໍາລັບການເຂົ້າເຖິງຂໍ້ມູນສ່ວນບຸກຄົນແລະລວມສໍາລັບຈຸດປະສົງທາງເສດຖະກິດຫຼືຍຸດທະສາດບໍ? | |
| ສັນຍາການຄ້າແລະການຄ້າ | ລະບົບດັ່ງກ່າວມີຜົນສະທ້ອນຕໍ່ສັນຍາການຄ້າລະຫວ່າງປະເທດບໍ? | |
| ປ່ຽນແປງໃນມະຫາອຳນາດທົ່ວໂລກ | ສະຖານະຂອງປະເທດຊາດເປັນຕົວຊີ້ນຳທາງພູມສາດທາງການເມືອງຕົ້ນຕໍຂອງໂລກຖືກຂົ່ມຂູ່ບໍ? ບໍລິສັດເຕັກໂນໂລຢີຈະຍຶດອໍານາດເມື່ອສະຫງວນໄວ້ສໍາລັບປະເທດຊາດແລະພວກເຂົາກາຍເປັນນັກສະແດງເອກະລາດອະທິປະໄຕບໍ? | |
| Disinformation | ມັນງ່າຍກວ່າສໍາລັບນັກສະແດງຂອງລັດແລະທີ່ບໍ່ແມ່ນຂອງລັດທີ່ຈະຜະລິດແລະເຜີຍແຜ່ຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງທີ່ສົ່ງຜົນກະທົບຕໍ່ຄວາມສາມັກຄີທາງສັງຄົມ, ຄວາມໄວ້ວາງໃຈແລະປະຊາທິປະໄຕ? | |
| ກ່ຽວກັບສິງແວດລ້ອມ | ການຊົມໃຊ້ພະລັງງານ ແລະຊັບພະຍາກອນ (ຮອຍຄາບອນ) | ລະບົບແລະຄວາມຕ້ອງການເພີ່ມການບໍລິໂພກພະລັງງານແລະຊັບພະຍາກອນຫຼາຍກວ່າແລະສູງກວ່າການເພີ່ມປະສິດທິພາບທີ່ໄດ້ຮັບຜ່ານຄໍາຮ້ອງສະຫມັກບໍ? |
| ຂະຫນາດຂອງຜົນກະທົບ | Criteria | ລາຍລະອຽດ |
| ຂໍ້ມູນແລະການປ້ອນຂໍ້ມູນ | ການຊອກຄົ້ນຫາແລະການເກັບລວບລວມ | ຂໍ້ມູນແລະການປ້ອນຂໍ້ມູນຖືກເກັບກໍາໂດຍມະນຸດ, ເຊັນເຊີອັດຕະໂນມັດຫຼືທັງສອງ? |
| ຫຼັກຖານສະແດງຂໍ້ມູນ | ກ່ຽວກັບຂໍ້ມູນເຫຼົ່ານີ້ແມ່ນສະຫນອງໃຫ້, ສັງເກດເຫັນ, ສັງເຄາະຫຼືມາຈາກ? ມີການປົກປ້ອງລາຍນໍ້າເພື່ອຢືນຢັນການພິສູດບໍ? | |
| ລັກສະນະໄດນາມິກຂອງຂໍ້ມູນ | ຂໍ້ມູນແບບເຄື່ອນໄຫວ, ຄົງທີ່, ປັບປຸງເປັນຊ່ວງເວລາ ຫຼື ອັບເດດໃນເວລາຈິງບໍ? | |
| ສິດທິ | ຂໍ້ມູນແມ່ນເປັນເຈົ້າຂອງ, ສາທາລະນະ ຫຼືສ່ວນບຸກຄົນ (ເຊັ່ນ, ກ່ຽວຂ້ອງກັບບຸກຄົນທີ່ສາມາດລະບຸຕົວຕົນໄດ້) ບໍ? | |
| ການລະບຸຂໍ້ມູນສ່ວນຕົວ | ຖ້າຂໍ້ມູນສ່ວນຕົວ, ພວກມັນຖືກເປີດເຜີຍຊື່ຫຼືນາມສະກຸນບໍ? | |
| ໂຄງສ້າງຂອງຂໍ້ມູນ | ຂໍ້ມູນມີໂຄງສ້າງ, ເຄິ່ງໂຄງສ້າງ, ສະລັບສັບຊ້ອນຫຼືບໍ່ມີໂຄງສ້າງບໍ? | |
| ຮູບແບບຂອງຂໍ້ມູນ | ຮູບແບບຂອງຂໍ້ມູນແລະ metadata ແມ່ນມາດຕະຖານຫຼືບໍ່ໄດ້ມາດຕະຖານ? | |
| ຂະໜາດຂອງຂໍ້ມູນ | ຂະໜາດຂອງຊຸດຂໍ້ມູນແມ່ນຫຍັງ? | |
| ຄວາມເໝາະສົມ ແລະຄຸນນະພາບຂອງຂໍ້ມູນ | ຊຸດຂໍ້ມູນເຫມາະກັບຈຸດປະສົງບໍ? ຂະຫນາດຕົວຢ່າງພຽງພໍບໍ? ມັນເປັນຕົວແທນແລະຄົບຖ້ວນພຽງພໍບໍ? ຂໍ້ມູນມີສຽງດັງແນວໃດ? ມັນມີຄວາມຜິດພາດບໍ່? | |
| ຮູບແບບ | ຄວາມພ້ອມຂອງຂໍ້ມູນ | ຂໍ້ມູນກ່ຽວກັບຮູບແບບຂອງລະບົບມີຢູ່ບໍ? |
| ປະເພດຂອງຕົວແບບ AI | ຕົວແບບເປັນສັນຍາລັກ (ກົດລະບຽບທີ່ສ້າງຂຶ້ນໂດຍມະນຸດ), ສະຖິຕິ (ໃຊ້ຂໍ້ມູນ) ຫຼືປະສົມ? | |
| ສິດທິທີ່ກ່ຽວຂ້ອງກັບຕົວແບບ | ຮູບແບບເປີດແຫຼ່ງ, ຫຼືເປັນເຈົ້າຂອງ, ຕົນເອງຫຼືພາກສ່ວນທີສາມຄຸ້ມຄອງບໍ? | |
| ແບບດຽວ ຫຼືຫຼາຍແບບ | ລະບົບປະກອບດ້ວຍຕົວແບບຫນຶ່ງຫຼືຫຼາຍຕົວແບບເຊື່ອມຕໍ່ກັນບໍ? | |
| ໂດຍທົ່ວໄປ ຫຼືຈໍາແນກ | ແບບຈໍາລອງແມ່ນເປັນການສ້າງ, ຈໍາແນກຫຼືທັງສອງ? | |
| ການສ້າງແບບຈໍາລອງ | ລະບົບຮຽນຮູ້ໂດຍອີງໃສ່ກົດລະບຽບທີ່ມະນຸດຂຽນ, ຈາກຂໍ້ມູນ, ໂດຍຜ່ານການຮຽນຮູ້ທີ່ມີການຄວບຄຸມຫຼືຜ່ານການຮຽນຮູ້ເສີມບໍ? | |
| ການວິວັດທະນາການຕົວແບບ (AI drift) | ຮູບແບບດັ່ງກ່າວພັດທະນາ ແລະ/ຫຼືໄດ້ຮັບຄວາມສາມາດຈາກການພົວພັນກັບຂໍ້ມູນໃນພາກສະຫນາມບໍ? | |
| ການຮຽນຮູ້ແບບສະຫະພັນ ຫຼືສູນກາງ | ຮູບແບບດັ່ງກ່າວໄດ້ຮັບການຝຶກອົບຮົມຈາກສູນກາງຫຼືຢູ່ໃນເຄື່ອງແມ່ຂ່າຍທ້ອງຖິ່ນຈໍານວນຫນຶ່ງຫຼືອຸປະກອນ "ແຂບ" ບໍ? | |
| ການພັດທະນາແລະບໍາລຸງຮັກສາ | ຮູບແບບດັ່ງກ່າວເປັນແບບທົ່ວໆໄປ, ສາມາດປັບແຕ່ງໄດ້ ຫຼື ເໝາະກັບຂໍ້ມູນຂອງນັກສະແດງ AI ບໍ? | |
| ການກໍານົດຫຼືຄວາມເປັນໄປໄດ້ | ຮູບແບບທີ່ໃຊ້ໃນລັກສະນະທີ່ກໍານົດ ຫຼືຄວາມເປັນໄປໄດ້? | |
| ຄວາມໂປ່ງໃສຂອງຕົວແບບ | ມີຂໍ້ມູນສໍາລັບຜູ້ໃຊ້ເພື່ອໃຫ້ພວກເຂົາເຂົ້າໃຈຜົນໄດ້ຮັບຂອງຕົວແບບແລະຂໍ້ຈໍາກັດຫຼືຂໍ້ຈໍາກັດຂອງການນໍາໃຊ້ບໍ? | |
| ຂໍ້ຈຳກັດດ້ານການຄິດໄລ່ | ມີຂໍ້ຈໍາກັດດ້ານຄອມພິວເຕີ້ກັບລະບົບບໍ? ພວກເຮົາສາມາດຄາດຄະເນການກະໂດດຂອງຄວາມສາມາດຫຼືກົດຫມາຍການປັບຂະຫນາດໄດ້ບໍ? | |
| ຂະຫນາດຂອງຜົນກະທົບ | Criteria | ລາຍລະອຽດ |
| ວຽກງານແລະຜົນຜະລິດ | ວຽກງານທີ່ປະຕິບັດໂດຍລະບົບ | ລະບົບປະຕິບັດວຽກງານໃດແດ່ (ເຊັ່ນ: ການຮັບຮູ້, ການກວດພົບເຫດການ, ການພະຍາກອນ)? |
| ສົມທົບວຽກງານແລະການປະຕິບັດ | ລະບົບການລວມເອົາວຽກງານແລະການດໍາເນີນການຈໍານວນຫນຶ່ງ (ເຊັ່ນ: ລະບົບການຜະລິດເນື້ອຫາ, ລະບົບປົກຄອງຕົນເອງ, ລະບົບການຄວບຄຸມ) ບໍ? | |
| ລະດັບຄວາມເປັນເອກະລາດຂອງລະບົບ | ການກະທຳຂອງລະບົບມີຄວາມເປັນເອກະລາດຫຼາຍປານໃດ ແລະມະນຸດມີບົດບາດອັນໃດແດ່? | |
| ລະດັບການມີສ່ວນຮ່ວມຂອງມະນຸດ | ມີການມີສ່ວນຮ່ວມຂອງມະນຸດຈໍານວນຫນຶ່ງເພື່ອເບິ່ງແຍງກິດຈະກໍາໂດຍລວມຂອງລະບົບ AI ແລະຄວາມສາມາດໃນການຕັດສິນໃຈເວລາແລະວິທີການນໍາໃຊ້ລະບົບໃນສະຖານະການໃດກໍ່ຕາມ? | |
| ຄໍາຮ້ອງສະຫມັກຫຼັກ | ລະບົບເປັນຂອງພື້ນທີ່ຄໍາຮ້ອງສະຫມັກຫຼັກເຊັ່ນ: ເຕັກໂນໂລຊີພາສາຂອງມະນຸດ, ວິໄສທັດຄອມພິວເຕີ, ອັດຕະໂນມັດແລະ / ຫຼືການເພີ່ມປະສິດທິພາບ, ຫຼືຫຸ່ນຍົນ? | |
| ການປະເມີນຜົນ | ມີມາດຕະຖານຫຼືວິທີການຕ່າງໆເພື່ອປະເມີນຜົນຜະລິດຂອງລະບົບຫຼືຈັດການກັບຄຸນສົມບັດທີ່ເກີດຂື້ນທີ່ບໍ່ໄດ້ຄາດຫວັງ? | |
ກຸນແຈ ແຫຼ່ງຂໍ້ມູນຂອງຄໍາອະທິບາຍ
ຂໍ້ຄວາມທຳມະດາ:
Gluckman, P. ແລະ Allen, K. 2018. ຄວາມເຂົ້າໃຈກ່ຽວກັບສະຫວັດດີການໃນແງ່ຂອງການຫັນປ່ຽນທາງດ້ານດິຈິຕອນຢ່າງໄວວາແລະທີ່ກ່ຽວຂ້ອງ. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
ຂໍ້ຄວາມທີ່ກ້າຫານ:
OECD. 2022. OECD Framework ສໍາລັບການຈັດປະເພດລະບົບ AI. OECD ເອກະສານເສດຖະກິດດິຈິຕອນ, ສະບັບເລກທີ 323, OECD Publishing, Paris. https://oecd.ai/en/classification
ຕົວ ໜັງ ສືໂຕເນີ້ງ:
ຕົວອະທິບາຍໃໝ່ (ຈາກຫຼາຍແຫຼ່ງ)
ວິທີການຕໍ່ຫນ້າ
ອີງຕາມການຕອບໂຕ້ຂອງເອກະສານສົນທະນານີ້, ຄະນະປະຕິບັດງານຜູ້ຊ່ຽວຊານຈະຖືກສ້າງຕັ້ງຂື້ນໂດຍ ISC ເພື່ອພັດທະນາຫຼືປັບປຸງກອບການວິເຄາະຂ້າງເທິງນີ້, ເຊິ່ງຜູ້ກ່ຽວຂ້ອງອາດຈະເບິ່ງການພັດທະນາທີ່ສໍາຄັນໃດໆທັງເວທີຫຼືຂະຫນາດຂອງການນໍາໃຊ້. ຄະນະປະຕິບັດງານຈະມີຄວາມຫຼາກຫຼາຍທາງດ້ານລະບຽບວິໄນ, ທາງດ້ານພູມສັນຖານແລະທາງດ້ານປະຊາກອນ, ໂດຍມີຄວາມຊໍານານຕັ້ງແຕ່ການປະເມີນເຕັກໂນໂລຢີໄປສູ່ນະໂຍບາຍສາທາລະນະ, ຈາກການພັດທະນາມະນຸດຈົນເຖິງສັງຄົມວິທະຍາແລະອະນາຄົດແລະການສຶກສາເຕັກໂນໂລຢີ.
ເພື່ອເຂົ້າຮ່ວມກັບເອກະສານສົນທະນານີ້, ກະລຸນາເຂົ້າໄປເບິ່ງ council.science/publications/framework-digital-technologies
ຂອບໃຈ
ປະຊາຊົນຈໍານວນຫຼາຍໄດ້ຮັບການປຶກສາຫາລືໃນການພັດທະນາເອກະສານສະບັບນີ້, ເຊິ່ງໄດ້ຖືກຮ່າງໂດຍ Sir Peter Gluckman, ປະທານ, ISC ແລະ Hema Sridhar, ອະດີດຫົວຫນ້ານັກວິທະຍາສາດ, ກະຊວງປ້ອງກັນປະເທດ, ແລະປະຈຸບັນເປັນນັກຄົ້ນຄວ້າອາວຸໂສ, ມະຫາວິທະຍາໄລ Auckland, ນິວຊີແລນ.
ໂດຍສະເພາະພວກເຮົາຂໍຂອບໃຈ Lord Martin Rees, ອະດີດປະທານຂອງ Royal Society ແລະຜູ້ຮ່ວມກໍ່ຕັ້ງຂອງສູນສໍາລັບການສຶກສາຂອງຄວາມສ່ຽງທີ່ມີຢູ່ແລ້ວ, ວິທະຍາໄລ Cambridge; ສາດສະດາຈານ Shivaji Sondhi, ອາຈານສອນວິຊາຟີຊິກສາດ, ມະຫາວິທະຍາໄລ Oxford; ສາດສະດາຈານ K Vijay Raghavan, ອະດີດທີ່ປຶກສາດ້ານວິທະຍາສາດຕົ້ນຕໍຂອງລັດຖະບານອິນເດຍ; Amandeep Singh Gill, ທູດພິເສດຂອງເລຂາທິການໃຫຍ່ ສປຊ ກ່ຽວກັບເຕັກໂນໂລຊີ; ທ່ານດຣ Seán Óh Éigeartaigh, ຜູ້ອໍານວຍການບໍລິຫານ, ສູນການສຶກສາຄວາມສ່ຽງທີ່ມີຢູ່ແລ້ວ, ມະຫາວິທະຍາໄລ Cambridge; Amanda-June Brawner, ທີ່ປຶກສາດ້ານນະໂຍບາຍອາວຸໂສ ແລະ Ian Wiggins, ຜູ້ອໍານວຍການຝ່າຍການຕ່າງປະເທດ, Royal Society UK; ດຣ Jerome Duberry, ທ່ານດຣ Marie-Laure Salles, ຜູ້ອໍານວຍການ, ສະຖາບັນຈົບການສຶກສາຂອງເຈນີວາ; ທ່ານ Chor Pharn Lee, ສູນຍຸດທະສາດອານາຄົດ, ຫ້ອງການນາຍົກລັດຖະມົນຕີ, ສິງກະໂປ; Barend Mons ແລະທ່ານດຣ Simon Hodson, ຄະນະກໍາມະການກ່ຽວກັບຂໍ້ມູນ (CoDATA); ສາດສະດາຈານ Yuko Harayama, ປະເທດຍີ່ປຸ່ນ; ສາດສະດາຈານ Rémi Quirion, ປະທານ, INGSA; ທ່ານດຣ Claire Craig, ມະຫາວິທະຍາໄລ Oxford ແລະອະດີດຫົວຫນ້າ Foresight, ຫ້ອງວ່າການລັດຖະບານຂອງວິທະຍາສາດ; ແລະທ່ານສາດສະດາຈານ Yoshua Bengio, ຄະນະທີ່ປຶກສາວິທະຍາສາດຂອງເລຂາທິການໃຫຍ່ອົງການສະຫະປະຊາຊາດ ແລະຢູ່ທີ່ມະຫາວິທະຍາໄລ Montréal. ວິທີການກວດສອບບັນຊີໄດ້ຖືກຮັບຮອງໂດຍທົ່ວໄປແລະທັນເວລາຂອງການປະຕິບັດໃດໆໂດຍ ISC ໄດ້ເນັ້ນຫນັກ.
ຮູບພາບ: adamichi ໃນ iStock