ກ້ານໃບ Omri Geller, CEO ແລະຜູ້ຮ່ວມກໍ່ຕັ້ງຂອງ Run:AI - Interview Series - Unite.AI
ເຊື່ອມຕໍ່ກັບພວກເຮົາ

ການສໍາພາດ

Omri Geller, ຊີອີໂອ ແລະຜູ້ຮ່ວມກໍ່ຕັ້ງຂອງ Run:AI – ຊຸດສຳພາດ

mm
ການປັບປຸງ on
Omri Geller ແລະຜູ້ຮ່ວມກໍ່ຕັ້ງ Ronen Dar

Omri Geller ເປັນ CEO ແລະຜູ້ຮ່ວມກໍ່ຕັ້ງຢູ່ ແລ່ນ: AI

ແລ່ນ: AI virtualizes ແລະເລັ່ງ AI ໂດຍການລວມເອົາຊັບພະຍາກອນຄອມພິວເຕີ້ GPU ເພື່ອຮັບປະກັນການເບິ່ງເຫັນແລະ, ໃນທີ່ສຸດ, ຄວບຄຸມການຈັດລໍາດັບຄວາມສໍາຄັນແລະການຈັດສັນຊັບພະຍາກອນ. ນີ້ຮັບປະກັນວ່າໂຄງການ AI ໄດ້ຖືກວາງແຜນໄວ້ໃນເປົ້າຫມາຍທຸລະກິດແລະໃຫ້ຜົນໄດ້ຮັບການປັບປຸງຢ່າງຫຼວງຫຼາຍໃນການຜະລິດຂອງທີມງານວິທະຍາສາດຂໍ້ມູນ, ໃຫ້ພວກເຂົາສ້າງແລະຝຶກອົບຮົມແບບຈໍາລອງພ້ອມກັນໂດຍບໍ່ມີຂໍ້ຈໍາກັດດ້ານຊັບພະຍາກອນ.

ມັນແມ່ນຫຍັງທີ່ດຶງດູດເຈົ້າໄປສູ່ປັນຍາທຽມໃນເບື້ອງຕົ້ນ?

ເມື່ອຂ້ອຍເລີ່ມຮຽນຈົບປະລິນຍາຕີສາຂາວິສະວະກຳໄຟຟ້າ ແລະ ເອເລັກໂຕຣນິກຢູ່ມະຫາວິທະຍາໄລ Tel Aviv, ຂ້ອຍໄດ້ຄົ້ນພົບສິ່ງທີ່ໜ້າສົນໃຈກ່ຽວກັບ AI ທີ່ຂ້ອຍຮູ້ວ່າຈະຊ່ວຍພາພວກເຮົາໄປສູ່ຂັ້ນຕອນຕໍ່ໄປໃນຄວາມເປັນໄປໄດ້ຂອງຄອມພິວເຕີ. ຈາກບ່ອນນັ້ນ, ຂ້ອຍຮູ້ວ່າຂ້ອຍຢາກລົງທຶນຕົວເອງເຂົ້າໄປໃນພື້ນທີ່ AI. ບໍ່ວ່າຈະຢູ່ໃນການຄົ້ນຄວ້າ AI, ຫຼືການເປີດບໍລິສັດທີ່ຈະຊ່ວຍໃຫ້ແນະນໍາວິທີການໃຫມ່ເພື່ອນໍາໃຊ້ AI ກັບໂລກ.

ທ່ານສະເຫມີມີຄວາມສົນໃຈໃນຮາດແວຄອມພິວເຕີ?

ເມື່ອຂ້ອຍໄດ້ຮັບຄອມພິວເຕີເຄື່ອງທໍາອິດຂອງຂ້ອຍກັບໂປເຊດເຊີ Intel 486 ໃນອາຍຸຫົກຫາເຈັດປີ, ຂ້ອຍສົນໃຈທັນທີທີ່ຈະຄິດອອກວ່າທຸກຢ່າງເຮັດວຽກແນວໃດ, ເຖິງແມ່ນວ່າຂ້ອຍອາດຈະຍັງນ້ອຍເກີນໄປທີ່ຈະເຂົ້າໃຈແທ້ໆ. ນອກເຫນືອຈາກກິລາ, ຄອມພິວເຕີໄດ້ກາຍເປັນຫນຶ່ງໃນວຽກອະດິເລກທີ່ໃຫຍ່ທີ່ສຸດຂອງຂ້ອຍທີ່ເຕີບໃຫຍ່ຂຶ້ນ. ຕັ້ງແຕ່ນັ້ນມາ, ຂ້ອຍໄດ້ສ້າງຄອມພິວເຕີ, ເຮັດວຽກກັບເຂົາເຈົ້າ, ແລະໄດ້ໄປຮຽນຕໍ່ໃນສາຂາວິຊາເພາະຄວາມມັກໃນໄວເດັກ.

ແມ່ນຫຍັງເປັນແຮງບັນດານໃຈຂອງເຈົ້າທີ່ຢູ່ເບື້ອງຫຼັງການເປີດຕົວ Run:AI?

ຂ້ອຍຮູ້ຕັ້ງແຕ່ຕົ້ນໆວ່າຂ້ອຍຢາກລົງທຶນຕົວເອງເຂົ້າໄປໃນພື້ນທີ່ AI. ໃນສອງສາມປີທີ່ຜ່ານມາ, ອຸດສາຫະກໍາໄດ້ເຫັນການຂະຫຍາຍຕົວຢ່າງຫຼວງຫຼາຍໃນ AI, ແລະການຂະຫຍາຍຕົວຢ່າງຫຼວງຫຼາຍແມ່ນມາຈາກທັງນັກວິທະຍາສາດຄອມພິວເຕີ, ເຊັ່ນຂ້ອຍ, ແລະຮາດແວທີ່ສາມາດສະຫນັບສະຫນູນຄໍາຮ້ອງສະຫມັກຫຼາຍຂຶ້ນ. ມັນເຫັນໄດ້ຊັດເຈນຂຶ້ນສໍາລັບຂ້ອຍວ່າຂ້ອຍຈະເລີ່ມບໍລິສັດຢ່າງຫຼີກລ່ຽງບໍ່ໄດ້ - ແລະຮ່ວມກັບຜູ້ຮ່ວມກໍ່ຕັ້ງຂອງຂ້ອຍ Ronen Dar - ເພື່ອສືບຕໍ່ປະດິດສ້າງແລະຊ່ວຍນໍາເອົາ AI ໄປສູ່ບໍລິສັດວິສາຫະກິດຫຼາຍຂຶ້ນ.

ແລ່ນ: AI ຊ່ວຍໃຫ້ຜູ້ຊ່ຽວຊານດ້ານການຮຽນຮູ້ເຄື່ອງຈັກໄດ້ຮັບການຄວບຄຸມປະເພດໃຫມ່ກ່ຽວກັບການຈັດສັນຊັບພະຍາກອນ GPU ລາຄາແພງ. ທ່ານສາມາດອະທິບາຍວິທີການເຮັດວຽກນີ້ບໍ?

ສິ່ງທີ່ພວກເຮົາຈໍາເປັນຕ້ອງເຂົ້າໃຈແມ່ນວ່າວິສະວະກອນການຮຽນຮູ້ເຄື່ອງຈັກ, ເຊັ່ນ: ນັກຄົ້ນຄວ້າແລະນັກວິທະຍາສາດຂໍ້ມູນ, ຈໍາເປັນຕ້ອງໃຊ້ພະລັງງານຄອມພິວເຕີ້ໃນທາງທີ່ຍືດຫຍຸ່ນ. ບໍ່ພຽງແຕ່ການຄິດໄລ່ໃຫມ່ທີ່ສຸດຂອງມື້ນີ້ແມ່ນຄອມພິວເຕີ້ທີ່ໃຊ້ຫຼາຍ, ແຕ່ຍັງມີຂະບວນການເຮັດວຽກໃຫມ່ທີ່ຖືກນໍາໃຊ້ໃນວິທະຍາສາດຂໍ້ມູນ. ຂະບວນການເຮັດວຽກເຫຼົ່ານີ້ແມ່ນອີງໃສ່ຄວາມຈິງທີ່ວ່າວິທະຍາສາດຂໍ້ມູນແມ່ນອີງໃສ່ການທົດລອງແລະການທົດລອງແລ່ນ.

ເພື່ອພັດທະນາວິທີແກ້ໄຂໃຫມ່ເພື່ອດໍາເນີນການທົດລອງທີ່ມີປະສິດທິພາບຫຼາຍຂຶ້ນ, ພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ສຶກສາແນວໂນ້ມການເຮັດວຽກເຫຼົ່ານີ້ໃນໄລຍະເວລາ. ຕົວຢ່າງ: ນັກວິທະຍາສາດຂໍ້ມູນໃຊ້ 100 GPUs ໃນມື້ດຽວ, ແຕ່ມື້ຕໍ່ມາພວກເຂົາອາດຈະໃຊ້ສູນ, ຫຼືພວກເຂົາສາມາດໃຊ້ GPU ຫນຶ່ງເປັນເວລາດົນນານ, ແຕ່ຫຼັງຈາກນັ້ນຈໍາເປັນຕ້ອງໃຊ້ 100 GPUs ເພາະວ່າພວກເຂົາຕ້ອງການດໍາເນີນການທົດລອງ XNUMX. ໃນຂະຫນານ. ເມື່ອພວກເຮົາເຂົ້າໃຈຂັ້ນຕອນການເຮັດວຽກນີ້ສໍາລັບການເພີ່ມປະສິດທິພາບການປຸງແຕ່ງຂອງຜູ້ໃຊ້ຫນຶ່ງ, ພວກເຮົາສາມາດເລີ່ມຕົ້ນຂະຫນາດມັນໃຫ້ກັບຜູ້ໃຊ້ຫຼາຍຄົນ.

ດ້ວຍຄອມພິວເຕີ້ແບບດັ້ງເດີມ, ຕົວເລກສະເພາະຂອງ GPU ແມ່ນຖືກຈັດສັນໃຫ້ກັບຜູ້ໃຊ້ທຸກຄົນ, ໂດຍບໍ່ຄໍານຶງເຖິງວ່າພວກເຂົາຖືກນໍາໃຊ້ຫຼືບໍ່. ດ້ວຍວິທີການນີ້, ເລື້ອຍໆ, GPUs ລາຄາແພງນັ່ງຢູ່ໂດຍບໍ່ມີໃຜສາມາດເຂົ້າຫາພວກມັນໄດ້, ເຮັດໃຫ້ ROI ຕໍ່າສໍາລັບ GPU. ພວກເຮົາເຂົ້າໃຈບູລິມະສິດທາງດ້ານການເງິນຂອງບໍລິສັດ, ແລະສະເຫນີວິທີແກ້ໄຂທີ່ອະນຸຍາດໃຫ້ຈັດສັນຊັບພະຍາກອນເຫຼົ່ານັ້ນຕາມຄວາມຕ້ອງການຂອງຜູ້ໃຊ້. ໂດຍການສະເຫນີລະບົບທີ່ມີຄວາມຍືດຫຍຸ່ນ, ພວກເຮົາສາມາດຈັດສັນພະລັງງານພິເສດໃຫ້ກັບຜູ້ໃຊ້ສະເພາະໃນເວລາທີ່ຕ້ອງການ, ໂດຍການນໍາໃຊ້ GPU ທີ່ບໍ່ຖືກນໍາໃຊ້ໂດຍຜູ້ໃຊ້ອື່ນໆ, ການສ້າງ ROI ສູງສຸດສໍາລັບຊັບພະຍາກອນຄອມພິວເຕີ້ຂອງບໍລິສັດແລະເລັ່ງການປະດິດສ້າງແລະເວລາໃນການຕະຫຼາດການແກ້ໄຂ AI.

ຫນຶ່ງໃນການເຮັດວຽກ: AI ການເຮັດວຽກແມ່ນວ່າມັນເຮັດໃຫ້ການຫຼຸດຜ່ອນຈຸດຕາບອດທີ່ສ້າງຂຶ້ນໂດຍການຈັດສັນ static ຂອງ GPU. ນີ້ບັນລຸໄດ້ແນວໃດ?

ພວກເຮົາມີເຄື່ອງມືທີ່ເຮັດໃຫ້ພວກເຮົາເບິ່ງເຫັນຢ່າງເຕັມທີ່ເຂົ້າໄປໃນກຸ່ມຂອງຊັບພະຍາກອນ. ໂດຍການນໍາໃຊ້ເຄື່ອງມືນີ້, ພວກເຮົາສາມາດສັງເກດແລະເຂົ້າໃຈຖ້າຫາກວ່າມີຈຸດຕາບອດ, ແລະຫຼັງຈາກນັ້ນນໍາໃຊ້ GPUs idle ເຫຼົ່ານັ້ນສໍາລັບຜູ້ໃຊ້ທີ່ຕ້ອງການການຈັດສັນ. ເຄື່ອງ​ມື​ດຽວ​ກັນ​ທີ່​ສະ​ຫນອງ​ການ​ສັງ​ເກດ​ເຫັນ​ເຂົ້າ​ໄປ​ໃນ​ກຸ່ມ​ແລະ​ການ​ຄວບ​ຄຸມ​ໃນ​ກຸ່ມ​ຍັງ​ເຮັດ​ໃຫ້​ແນ່​ໃຈວ່​າ​ຈຸດ​ຕາ​ບອດ​ເຫຼົ່າ​ນັ້ນ​ໄດ້​ຖືກ​ຫຼຸດ​ຜ່ອນ​.

ໃນຄໍາປາໄສທີ່ຜ່ານມາ, ທ່ານໄດ້ຍົກໃຫ້ເຫັນຄວາມແຕກຕ່າງບາງຢ່າງລະຫວ່າງຂະບວນການກໍ່ສ້າງແລະການຝຶກອົບຮົມ, ທ່ານສາມາດອະທິບາຍວິທີການ Run: AI ໃຊ້ກົນໄກການຈັດການຄິວ GPU ເພື່ອຈັດສັນການຄຸ້ມຄອງຊັບພະຍາກອນສໍາລັບທັງສອງບໍ?

ຮູບແບບ AI ຖືກສ້າງຂຶ້ນໃນສອງຂັ້ນຕອນ. ຫນ້າທໍາອິດ, ມີຂັ້ນຕອນການກໍ່ສ້າງ, ບ່ອນທີ່ນັກວິທະຍາສາດຂໍ້ມູນກໍາລັງຂຽນລະຫັດເພື່ອສ້າງຕົວແບບຕົວຈິງ, ຄືກັນກັບວິສະວະກອນຈະສ້າງລົດ. ອັນທີສອງແມ່ນຂັ້ນຕອນການຝຶກອົບຮົມ, ບ່ອນທີ່ຕົວແບບທີ່ສໍາເລັດຈະເລີ່ມຕົ້ນທີ່ຈະຮຽນຮູ້ແລະ 'ການຝຶກອົບຮົມ' ກ່ຽວກັບວິທີການເພີ່ມປະສິດທິພາບວຽກງານສະເພາະໃດຫນຶ່ງ. ຄ້າຍໆກັບຄົນທີ່ກຳລັງຮຽນຂັບລົດຫລັງຈາກທີ່ມັນໄດ້ຖືກປະກອບແລ້ວ.

ເພື່ອສ້າງຕົວແບບຕົວມັນເອງ, ບໍ່ຈໍາເປັນພະລັງງານຄອມພິວເຕີ້ຫຼາຍ. ຢ່າງໃດກໍຕາມ, ໃນທີ່ສຸດ, ມັນສາມາດຕ້ອງການພະລັງງານການປຸງແຕ່ງທີ່ເຂັ້ມແຂງເພື່ອເລີ່ມຕົ້ນການທົດສອບພາຍໃນຂະຫນາດນ້ອຍກວ່າ. ຕົວຢ່າງ, ວິທີທີ່ວິສະວະກອນຕ້ອງການທົດສອບເຄື່ອງຈັກກ່ອນທີ່ພວກເຂົາຈະຕິດຕັ້ງມັນ. ເນື່ອງຈາກຄວາມຕ້ອງການທີ່ແຕກຕ່າງກັນເຫຼົ່ານີ້ໃນແຕ່ລະຂັ້ນຕອນ, Run.AI ອະນຸຍາດໃຫ້ຈັດສັນ GPU ໂດຍບໍ່ຄໍານຶງເຖິງວ່າພວກເຂົາກໍາລັງສ້າງຫຼືການຝຶກອົບຮົມແບບຈໍາລອງ, ຢ່າງໃດກໍຕາມ, ດັ່ງທີ່ໄດ້ກ່າວມາກ່ອນຫນ້ານີ້, ການນໍາໃຊ້ GPU ສູງຂຶ້ນໂດຍທົ່ວໄປແມ່ນຕ້ອງການສໍາລັບການຝຶກອົບຮົມແບບຈໍາລອງໃນຂະນະທີ່ຕ້ອງການຫນ້ອຍໃນການກໍ່ສ້າງມັນ. .

ເວລາ/ຊັບພະຍາກອນຂອງຄອມພິວເຕີ້ດິບສາມາດບັນທຶກໄດ້ຫຼາຍປານໃດໂດຍຜູ້ພັດທະນາ AI ທີ່ຕ້ອງການເຊື່ອມໂຍງ Run.AI ເຂົ້າໃນລະບົບຂອງເຂົາເຈົ້າ?

ການແກ້ໄຂຂອງພວກເຮົາຢູ່ Run.ai ສາມາດປັບປຸງການຫັນເປັນດິຈິຕອນຂອງຊັບພະຍາກອນ, ປະມານ 2 ຫາ 3 ເທື່ອ, ຊຶ່ງຫມາຍຄວາມວ່າ XNUMX-XNUMX ເທົ່າຂອງຜົນຜະລິດໂດຍລວມ.

ຂອບໃຈສໍາລັບການສໍາພາດ, ຜູ້ອ່ານທີ່ຕ້ອງການຮຽນຮູ້ເພີ່ມເຕີມສາມາດໄປຢ້ຽມຢາມ ແລ່ນ: AI.

ຄູ່ຮ່ວມງານຜູ້ກໍ່ຕັ້ງຂອງ unite.AI ແລະສະມາຊິກຂອງ ສະພາເທກໂນໂລຍີ Forbes, Antoine ເປັນ futurist ຜູ້ທີ່ມີຄວາມກະຕືລືລົ້ນກ່ຽວກັບອະນາຄົດຂອງ AI ແລະຫຸ່ນຍົນ.

ລາວຍັງເປັນຜູ້ກໍ່ຕັ້ງຂອງ Securities.io, ເວັບໄຊທ໌ທີ່ສຸມໃສ່ການລົງທຶນໃນເຕັກໂນໂລຢີທີ່ຂັດຂວາງ.