ກ້ານໃບ AWS ແລະ NVIDIA ປະກາດຄວາມຮ່ວມມືຍຸດທະສາດໃໝ່ - Unite.AI
ເຊື່ອມຕໍ່ກັບພວກເຮົາ

ອ່ານມ່ວນຊວນຫົວ

AWS ແລະ NVIDIA ປະກາດຄວາມຮ່ວມມືຍຸດທະສາດໃໝ່

ຈັດພີມມາ

 on

ໃນການປະກາດທີ່ໂດດເດັ່ນຢູ່ທີ່ AWS re:Invent, Amazon Web Services (AWS) ແລະ NVIDIA ໄດ້ເປີດເຜີຍການຂະຫຍາຍຕົວທີ່ສໍາຄັນຂອງການຮ່ວມມືຍຸດທະສາດຂອງພວກເຂົາ, ກໍານົດມາດຕະຖານໃຫມ່ໃນຂອບເຂດຂອງ AI ການຜະລິດ. ການຮ່ວມມືນີ້ສະແດງເຖິງຈຸດສໍາຄັນໃນພາກສະຫນາມ, ແຕ່ງງານກັບໂຄງສ້າງພື້ນຖານຄລາວທີ່ແຂງແຮງຂອງ AWS ກັບເຕັກໂນໂລຊີ AI ທີ່ທັນສະໄຫມຂອງ NVIDIA. ເນື່ອງຈາກ AWS ກາຍເປັນຜູ້ໃຫ້ບໍລິການຄລາວທຳອິດທີ່ເຊື່ອມໂຍງ GH200 Grace Hopper Superchips ຂັ້ນສູງຂອງ NVIDIA, ພັນທະມິດນີ້ສັນຍາວ່າຈະປົດລັອກຄວາມສາມາດທີ່ບໍ່ເຄີຍມີມາກ່ອນໃນການປະດິດສ້າງ AI.

ຫຼັກການຂອງການຮ່ວມມືນີ້ແມ່ນວິໄສທັດຮ່ວມກັນເພື່ອຊຸກຍູ້ AI ການຜະລິດໄປສູ່ຄວາມສູງໃຫມ່. ໂດຍການໃຊ້ລະບົບຫຼາຍໂນດຂອງ NVIDIA, GPUs ລຸ້ນຕໍ່ໄປ, CPUs, ແລະຊອບແວ AI ທີ່ມີຄວາມຊັບຊ້ອນ, ຄຽງຄູ່ກັບການ virtualization ຂັ້ນສູງຂອງ Nitro System ຂອງ AWS, Elastic Fabric Adapter (EFA) interconnect, ແລະ UltraCluster scalability, ການຮ່ວມມືນີ້ຖືກຕັ້ງເພື່ອປະຕິວັດວິທີການທີ່ແອັບພລິເຄຊັນ AI ຜະລິດອອກມາ. ໄດ້​ຮັບ​ການ​ພັດ​ທະ​ນາ​, ການ​ຝຶກ​ອົບ​ຮົມ​, ແລະ​ການ​ນໍາ​ໃຊ້​.

ຜົນສະທ້ອນຂອງການຮ່ວມມືນີ້ຂະຫຍາຍອອກໄປນອກເຫນືອການເຊື່ອມໂຍງກັບເຕັກໂນໂລຢີເທົ່ານັ້ນ. ມັນຫມາຍເຖິງຄໍາຫມັ້ນສັນຍາຮ່ວມກັນໂດຍສອງ Titans ອຸດສາຫະກໍາເພື່ອກ້າວຫນ້າ AI ການຜະລິດ, ສະເຫນີໃຫ້ລູກຄ້າແລະນັກພັດທະນາເຂົ້າເຖິງຊັບພະຍາກອນແລະໂຄງສ້າງທີ່ທັນສະໄຫມ.

NVIDIA GH200 Grace Hopper Superchips ໃນ AWS

ການຮ່ວມມືລະຫວ່າງ AWS ແລະ NVIDIA ໄດ້ນໍາໄປສູ່ຈຸດສໍາຄັນທາງດ້ານເຕັກໂນໂລຢີ: ການນໍາສະເຫນີຂອງ NVIDIA's GH200 Grace Hopper Superchips ໃນເວທີ AWS. ການເຄື່ອນໄຫວນີ້ຈັດວາງໃຫ້ AWS ເປັນຜູ້ໃຫ້ບໍລິການຄລາວບຸກເບີກເພື່ອສະເໜີໃຫ້ບັນດາຊຸບເປີຊິບທີ່ກ້າວໜ້າເຫຼົ່ານີ້, ເຊິ່ງເປັນບາດກ້າວອັນສຳຄັນໃນຄອມພິວເຕີຄລາວ ແລະເທັກໂນໂລຍີ AI.

NVIDIA GH200 Grace Hopper Superchips ແມ່ນກ້າວໄປຂ້າງຫນ້າໃນພະລັງງານຄອມພິວເຕີ້ແລະປະສິດທິພາບ. ພວກມັນຖືກອອກແບບດ້ວຍເທັກໂນໂລຍີ NVLink ຫຼາຍໂຫນດໃໝ່, ຊ່ວຍໃຫ້ພວກເຂົາສາມາດເຊື່ອມຕໍ່ ແລະ ເຮັດວຽກຜ່ານຫຼາຍໂຫນດໄດ້ຢ່າງບໍ່ຢຸດຢັ້ງ. ຄວາມສາມາດນີ້ແມ່ນການປ່ຽນແປງເກມ, ໂດຍສະເພາະໃນແງ່ຂອງ AI ຂະຫນາດໃຫຍ່ແລະວຽກງານການຮຽນຮູ້ເຄື່ອງຈັກ. ມັນອະນຸຍາດໃຫ້ແພລະຕະຟອມ multi-node GH200 NVL32 ສາມາດຂະຫຍາຍໄດ້ເຖິງຫຼາຍພັນ superchips, ສະຫນອງການປະຕິບັດລະດັບ supercomputer. ການຂະຫຍາຍຂະໜາດດັ່ງກ່າວເປັນສິ່ງສຳຄັນສຳລັບວຽກງານ AI ທີ່ສັບສົນ, ລວມທັງການຝຶກອົບຮົມແບບຈໍາລອງ AI ການຜະລິດທີ່ຊັບຊ້ອນ ແລະ ການປະມວນຜົນຂໍ້ມູນຂະໜາດໃຫຍ່ດ້ວຍຄວາມໄວ ແລະ ປະສິດທິພາບທີ່ບໍ່ເຄີຍມີມາກ່ອນ.

ການເປັນເຈົ້າພາບ NVIDIA DGX Cloud ໃນ AWS

ລັກສະນະທີ່ສໍາຄັນອີກອັນຫນຶ່ງຂອງການຮ່ວມມື AWS-NVIDIA ແມ່ນການເຊື່ອມໂຍງຂອງ NVIDIA DGX Cloud ໃນ AWS. AI-training-as-a-service ນີ້ສະແດງເຖິງຄວາມກ້າວຫນ້າຢ່າງຫຼວງຫຼາຍໃນຂົງເຂດການຝຶກອົບຮົມແບບຈໍາລອງ AI. ການບໍລິການແມ່ນສ້າງຂື້ນໃນຄວາມເຂັ້ມແຂງຂອງ GH200 NVL32, ໂດຍສະເພາະສໍາລັບການເລັ່ງການຝຶກອົບຮົມຂອງ AI ການຜະລິດແລະຮູບແບບພາສາຂະຫນາດໃຫຍ່.

DGX Cloud ໃນ AWS ນໍາເອົາຜົນປະໂຫຍດຫຼາຍຢ່າງ. ມັນຊ່ວຍໃຫ້ການແລ່ນແບບຈໍາລອງພາສາທີ່ກວ້າງຂວາງເກີນ 1 ພັນຕື້ພາລາມິເຕີ, ເຊິ່ງເປັນຜົນງານທີ່ທ້າທາຍໃນເມື່ອກ່ອນເພື່ອບັນລຸ. ຄວາມສາມາດນີ້ແມ່ນສໍາຄັນສໍາລັບການພັດທະນາແບບຈໍາລອງ AI ທີ່ມີຄວາມຊັບຊ້ອນ, ຖືກຕ້ອງ, ແລະເຂົ້າໃຈສະພາບການຫຼາຍຂຶ້ນ. ຍິ່ງໄປກວ່ານັ້ນ, ການປະສົມປະສານກັບ AWS ຊ່ວຍໃຫ້ປະສົບການການຝຶກອົບຮົມ AI ທີ່ມີຄວາມລຽບງ່າຍ ແລະສາມາດຂະຫຍາຍໄດ້ຫຼາຍຂື້ນ, ເຮັດໃຫ້ມັນສາມາດເຂົ້າເຖິງຜູ້ໃຊ້ ແລະອຸດສາຫະກໍາຕ່າງໆໄດ້ຢ່າງກວ້າງຂວາງ.

ໂຄງການ Ceiba: ການສ້າງ Supercomputer

ບາງທີລັກສະນະທີ່ມີຄວາມທະເຍີທະຍານທີ່ສຸດຂອງການຮ່ວມມື AWS-NVIDIA ແມ່ນໂຄງການ Ceiba. ໂຄງ​ການ​ນີ້​ມີ​ຈຸດ​ປະ​ສົງ​ເພື່ອ​ສ້າງ AI supercomputer GPU ທີ່​ໄວ​ທີ່​ສຸດ​ຂອງ​ໂລກ​, ມີ 16,384 NVIDIA GH200 Superchips​. ຄວາມສາມາດໃນການປະມວນຜົນທີ່ຄາດໄວ້ຂອງຊຸບເປີຄອມພີວເຕີແມ່ນເປັນ 65 exaflops ທີ່ຫນ້າປະຫລາດໃຈ, ເຮັດໃຫ້ມັນແຍກອອກເປັນ behemoth ໃນໂລກ AI.

ເປົ້າໝາຍຂອງໂຄງການ Ceiba ແມ່ນມີຫຼາຍອັນ. ຄາດວ່າຈະມີຜົນກະທົບຢ່າງຫຼວງຫຼາຍຕໍ່ໂດເມນ AI ຕ່າງໆ, ລວມທັງຮູບພາບແລະການຈໍາລອງ, ຊີວະວິທະຍາດິຈິຕອນ, ຫຸ່ນຍົນ, ຍານພາຫະນະອັດຕະໂນມັດ, ແລະການຄາດຄະເນສະພາບອາກາດ. ຊຸບເປີຄອມພິວເຕີຈະຊ່ວຍໃຫ້ນັກຄົ້ນຄວ້າແລະນັກພັດທະນາສາມາດຊຸກຍູ້ຂອບເຂດຂອງສິ່ງທີ່ເປັນໄປໄດ້ໃນ AI, ເລັ່ງຄວາມກ້າວຫນ້າໃນຂົງເຂດເຫຼົ່ານີ້ໃນຈັງຫວະທີ່ບໍ່ເຄີຍມີມາກ່ອນ. ໂຄງການ Ceiba ເປັນຕົວແທນບໍ່ພຽງແຕ່ຄວາມມະຫັດສະຈັນທາງດ້ານເຕັກໂນໂລຢີເທົ່ານັ້ນແຕ່ເປັນຕົວກະຕຸ້ນສໍາລັບການປະດິດສ້າງ AI ໃນອະນາຄົດ, ເຊິ່ງອາດຈະນໍາໄປສູ່ຄວາມກ້າວຫນ້າທີ່ສາມາດປັບປ່ຽນຄວາມເຂົ້າໃຈແລະການນໍາໃຊ້ປັນຍາປະດິດຂອງພວກເຮົາ.

ຍຸກໃໝ່ໃນນະວັດຕະກໍາ AI

ການຮ່ວມມືທີ່ຂະຫຍາຍອອກລະຫວ່າງ Amazon Web Services (AWS) ແລະ NVIDIA ເປັນຈຸດເລີ່ມຕົ້ນຂອງຍຸກໃໝ່ໃນນະວັດຕະກໍາ AI. ໂດຍການແນະນໍາ NVIDIA GH200 Grace Hopper Superchips ໃນ AWS, ການເປັນເຈົ້າພາບ NVIDIA DGX Cloud, ແລະເລີ່ມຕົ້ນໂຄງການ Ceiba ທີ່ມີຄວາມທະເຍີທະຍານ, ສອງບໍລິສັດເຕັກໂນໂລຢີຍັກໃຫຍ່ເຫຼົ່ານີ້ບໍ່ພຽງແຕ່ຊຸກຍູ້ຂອບເຂດຂອງ AI ການຜະລິດ, ແຕ່ຍັງກໍານົດມາດຕະຖານໃຫມ່ສໍາລັບຄອມພິວເຕີ້ຟັງແລະໂຄງສ້າງ AI. .

ການຮ່ວມມືນີ້ແມ່ນຫຼາຍກ່ວາພຽງແຕ່ພັນທະມິດເຕັກໂນໂລຢີ; ມັນສະແດງເຖິງຄວາມມຸ່ງຫມັ້ນຕໍ່ອະນາຄົດຂອງ AI. ການເຊື່ອມໂຍງຂອງເຕັກໂນໂລຢີ AI ຂັ້ນສູງຂອງ NVIDIA ກັບໂຄງສ້າງພື້ນຖານຄລາວທີ່ແຂງແຮງຂອງ AWS ແມ່ນກຽມພ້ອມທີ່ຈະເລັ່ງການພັດທະນາ, ການຝຶກອົບຮົມແລະການປະຕິບັດ AI ໃນທົ່ວອຸດສາຫະກໍາຕ່າງໆ. ຈາກການປັບປຸງແບບຈໍາລອງພາສາຂະຫນາດໃຫຍ່ໄປສູ່ການຄົ້ນຄວ້າກ້າວຫນ້າໃນສາຂາຕ່າງໆເຊັ່ນຊີວະສາດດິຈິຕອນແລະວິທະຍາສາດສະພາບອາກາດ, ຄໍາຮ້ອງສະຫມັກທີ່ເປັນໄປໄດ້ແລະຜົນສະທ້ອນຂອງການຮ່ວມມືນີ້ແມ່ນກວ້າງຂວາງແລະມີການປ່ຽນແປງ.

Alex McFarland ເປັນນັກຂ່າວ AI ແລະນັກຂຽນທີ່ຄົ້ນຫາການພັດທະນາຫລ້າສຸດໃນປັນຍາປະດິດ. ລາວໄດ້ຮ່ວມມືກັບ AI startups ແລະສິ່ງພິມຕ່າງໆໃນທົ່ວໂລກ.