кочан AI & AR стимулират търсенето на данни – Хардуерът с отворен код посреща предизвикателството – Unite.AI
Свържете се с нас

Лидери на мисълта

AI & AR стимулират търсенето на данни – Хардуерът с отворен код отговаря на предизвикателството

mm

Публикуван

 on

Данните са жизнената сила на цифровата икономика и с появата и развитието на нови технологии търсенето на по-бързи скорости на трансфер на данни, по-ниски закъснения и по-висока изчислителна мощност в центровете за данни нараства експоненциално. Новите технологии разширяват границите на предаването и обработката на данни и приемането на технологии с отворен код може да помогне на операторите на центрове за данни да увеличат максимално настоящите си операции и да се подготвят за бъдещето. Ето някои примери за технологии, които стимулират търсенето на високи изчислителни мощности и начини, по които технологията с отворен код, общностите и стандартите помагат да се отговори на това търсене в мащаб по устойчив начин.

Изкуствен интелект и машинно обучение

Технологиите за изкуствен интелект (AI) и машинно обучение (ML) революционизират различни области, като напр. обработка на естествен език, компютърно зрение, гласово разпознаване, системи за препоръки и самоуправляващи се автомобили. AI и ML позволяват на компютрите да се учат от данни и да изпълняват задачи, които обикновено изискват човешки интелект.

Въпреки това AI и ML също изискват огромни количества данни и изчислителна мощност за обучение и изпълнение на сложни модели и алгоритми. Например GPT-3, един от най-модерните модели на естествен език в света, има 175 милиарда параметъра и е обучен на 45 терабайта текстови данни. За да обработват такива широкомащабни набори от данни и модели ефективно, AI и ML приложенията се нуждаят от високопроизводителни изчислителни системи (HPC), които могат да осигурят високоскоростни скорости на трансфер на данни, ниски закъснения и висока изчислителна мощност.

Една от нововъзникващите тенденции в HPC е използването на специализирани процесори като GPU или TPU, които са оптимизирани за паралелна обработка и матрични операции, които са често срещани при натоварвания на AI и ML. Например Grace CPU на NVIDIA е нов процесор, проектиран специално за HPC приложения, който използва GPU технологията на NVIDIA, за да осигури до 10 пъти по-бърза производителност от сегашните x86 CPU. Grace CPU също така поддържа бързи връзки като NVLink, които позволяват високоскоростен трансфер на данни между CPU и GPU.

Разширена реалност и виртуална реалност

Apple Vision Pro предизвика приливни вълни по време на представянето си. Разширената реалност (AR) и виртуалната реалност (VR) са две от най-завладяващите и интерактивни технологии, които трансформират различни индустрии като развлечения, образование, здравеопазване и производство. AR наслагва цифрова информация върху реалния свят, докато VR създава напълно симулирана среда, която потребителите могат да изпитат чрез слушалки.

Тези технологии обаче поставят и значителни предизвикателства за преноса и обработката на данни. Поради скорошното му пускане, подробностите около Apple Vision Pro все още се очакват. Други VR слушалки обаче са налични от известно време, така че можем да направим някои предположения. Например, VR слушалки като Oculus Quest 2 изискват високоскоростна връзка с компютър или облачен сървър за поточно предаване на висококачествено видео и аудио съдържание, както и проследяване и въвеждане на данни от слушалките и контролерите. Видеобитрейтът, който е количеството данни, прехвърлени за секунда, зависи от скоростта, с която GPU може да кодира сигнала от страната на компютъра или сървъра, и скоростта, с която процесорът Quest 2 може да декодира сигнала от страната на слушалките .

Според Oculus препоръчителният битрейт за VR стрийминг е между 150 Mbps до 500 Mbps, в зависимост от разделителната способност и кадровата честота. Това означава, че стриймингът на VR изисква много по-висока скорост на трансфер на данни, отколкото други онлайн дейности, като сърфиране в мрежата или стрийминг на музика. Освен това VR стриймингът също изисква ниска латентност, което е времето, необходимо на сигнала да премине от една точка до друга. Високата латентност може да причини забавяне или нервност на играта, което може да съсипе потапянето и да причини прилошаване при движение.

Забавянето зависи от няколко фактора като скоростта на мрежата, разстоянието между устройствата и алгоритмите за кодиране и декодиране. Според Oculus идеалната латентност за VR стрийминг е под 20 милисекунди. Постигането на това ниво на производителност обаче не е лесно, особено при безжични връзки като Wi-Fi или 5G.

Технологии с отворен код за оптимизиране на центрове за данни

Тъй като новите технологии водят до търсенето на по-бързи скорости на пренос на данни, по-ниски закъснения и по-висока изчислителна мощност в центровете за данни, операторите на центрове за данни са изправени пред няколко предизвикателства, като увеличаване на потреблението на енергия, налагане на нови изисквания за охлаждане, използване на пространството, оперативни разходи и бърз темп на хардуерни иновации и обновяване. За да се справят с тези предизвикателства, операторите на центрове за данни трябва да оптимизират настоящата си инфраструктура и да приемат нови стандарти и технологии, които могат да подобрят тяхната ефективност и скалируемост.

Това е целта на проекта Open19, a Алианс за устойчива и мащабируема инфраструктура инициатива, която вече е част от Linux Foundation. Проектът Open19 е отворен стандарт за хардуер на центрове за данни, който се основава на общи форм-фактори и осигурява високоефективно разпределение на енергия от следващо поколение, повторно използваеми компоненти и възможности за възникващи високоскоростни връзки. Мисията на SSIA и отворените стандарти, създадени чрез проекта Open19, са в крак с по-широкия стремеж на индустрията към ефективност, скалируемост и устойчивост за инфраструктурата, която захранва нашия цифров живот и общности. The Отворете проект Compute е още едно усилие за ефективна подкрепа на нарастващите изисквания към компютърната инфраструктура. Този проект по подобен начин насърчава управлявано от общността сътрудничество между индустриални партньори за разработване на решения за центрове за данни, с фокус върху 21-инчови размери на сървърни шкафове, които обикновено се използват от големи colos и hyperscalers. Обхватът на OCP се простира и до съоръжението на центъра за данни, както и вътрешните ИТ компоненти на сървърите.

Заключение

Новите технологии стимулират търсенето на по-бързи скорости на трансфер на данни, по-ниски закъснения и по-висока изчислителна мощност в центровете за данни, докато общностите, правителствата и компаниите се фокусират върху управлението на ресурсите и повишените опасения за устойчивостта около използването на вода, управлението на мощността и други въглеродно-интензивни аспекти на технологията създаване, използване и внедряване. Възприемането на технологии с отворен код, разработени във форуми, управлявани от общността, като SSIA и Linux Foundation, може да помогне на операторите на центрове за данни да увеличат максимално текущите си операции и да се подготвят за бъдеще, което е по-устойчиво, тъй като отговарят на изискванията на тези вълнуващи нови приложения.

Зак Смит, член на борда на общността, SSI съюз.

Зак е редовен новатор в индустрията на облака и центровете за данни повече от 20 години. Съвсем наскоро Zac ръководи частта за цифрова инфраструктура на Equinix, след като компанията придоби Packet, компания, която той съоснова през 2014 г., за да предостави възможности за автоматизирани центрове за данни на водещи дигитални бизнеси. Преди Packet, Zac беше ранен член на Voxel, базирана на Linux облачна компания, придобита от Internap през 2011 г.