заглушки TinyML: приложения, ограничения и использование в IoT и Edge-устройствах - Unite.AI
Свяжитесь с нами:

Artificial Intelligence

TinyML: приложения, ограничения и использование в устройствах IoT и Edge

mm
обновленный on

За последние несколько лет искусственный интеллект (ИИ) и Машинное обучение (ML) стали свидетелями стремительного роста популярности и применения не только в промышленности, но и в научных кругах. Однако сегодняшние модели машинного обучения и искусственного интеллекта имеют одно серьезное ограничение: они требуют огромных вычислительных и вычислительных мощностей для достижения желаемых результатов и точности. Это часто ограничивает их использование высокопроизводительными устройствами со значительной вычислительной мощностью.

Но, учитывая достижения, достигнутые в технологии встроенных систем, и значительное развитие индустрии Интернета вещей, желательно включить использование методов и концепций ML во встроенную систему с ограниченными ресурсами для повсеместного интеллекта. Желание использовать концепции машинного обучения во встроенных системах и системах Интернета вещей является основным мотивирующим фактором разработки TinyML, встроенного метода машинного обучения, который позволяет использовать модели и приложения машинного обучения на нескольких дешевых устройствах с ограниченными ресурсами, энергопотреблением. 

Однако реализация машинного обучения на устройствах с ограниченными ресурсами оказалась непростой задачей, поскольку реализация моделей машинного обучения на устройствах с низкой вычислительной мощностью сопряжена с собственными проблемами с точки зрения оптимизации, вычислительной мощности, надежности, обслуживания моделей и многого другого. 

В этой статье мы более глубоко углубимся в модель TinyML и узнаем больше о ее истории, инструментах, поддерживающих TinyML, и приложениях TinyML с использованием передовых технологий. Итак, начнем. 

Введение в TinyML: зачем миру нужен TinyML

Интернет вещей или устройства IoT нацелены на использование периферийных вычислений, вычислительной парадигмы, которая относится к ряду устройств и сетей рядом с пользователем, чтобы обеспечить плавную обработку данных в реальном времени от миллионов датчиков и устройств, соединенных друг с другом. Одним из основных преимуществ устройств Интернета вещей является то, что они требуют низкой вычислительной и вычислительной мощности, поскольку их можно развернуть на границе сети, и, следовательно, они занимают мало памяти. 

Кроме того, устройства Интернета вещей в значительной степени полагаются на периферийные платформы для сбора и последующей передачи данных, поскольку эти периферийные устройства собирают сенсорные данные, а затем передают их либо в ближайшее место, либо на облачные платформы для обработки. Технология периферийных вычислений хранит и выполняет вычисления над данными, а также обеспечивает необходимую инфраструктуру для поддержки распределенных вычислений. 

Реализация периферийных вычислений в устройствах Интернета вещей обеспечивает

  1. Эффективная безопасность, конфиденциальность и надежность для конечных пользователей. 
  2. Меньшая задержка. 
  3. Более высокая доступность и пропускная способность реагирования на приложения и услуги. 

Кроме того, поскольку периферийные устройства могут использовать технологию совместной работы между датчиками и облаком, обработка данных может проводиться на границе сети, а не на облачной платформе. Это может привести к эффективному управлению данными, их сохранению, эффективной доставке и кэшированию контента. Кроме того, внедрение Интернета вещей в приложениях, связанных с H2M или взаимодействием человека с машиной и современными периферийными вычислениями в здравоохранении, дает возможность значительно улучшить сетевые услуги. 

Недавние исследования в области периферийных вычислений Интернета вещей продемонстрировали потенциал реализации методов машинного обучения в нескольких случаях использования Интернета вещей. Однако основная проблема заключается в том, что традиционные модели машинного обучения часто требуют мощных вычислительных и вычислительных мощностей, а также большого объема памяти, что ограничивает реализацию моделей машинного обучения в устройствах и приложениях Интернета вещей. 

Кроме того, технологиям периферийных вычислений сегодня не хватает высокой пропускной способности и эффективного энергосбережения, что приводит к гетерогенным системам, что является основной причиной потребности в гармоничной и целостной инфраструктуре, главным образом для обновления, обучения и развертывания моделей машинного обучения. Архитектура, разработанная для встраиваемых устройств, представляет собой еще одну проблему, поскольку эти архитектуры зависят от требований к аппаратному и программному обеспечению, которые варьируются от устройства к устройству. Это основная причина, по которой сложно построить стандартную архитектуру машинного обучения для сетей Интернета вещей. 

Кроме того, в текущем сценарии данные, генерируемые различными устройствами, отправляются на облачные платформы для обработки из-за вычислительно интенсивного характера сетевых реализаций. Кроме того, модели машинного обучения часто зависят от глубокого обучения, глубоких нейронных сетей, специализированных интегральных схем (ASIC) и графических процессоров (GPU) для обработки данных, и они часто имеют более высокие требования к мощности и памяти. Развертывание полноценных моделей машинного обучения на устройствах Интернета вещей не является жизнеспособным решением из-за очевидной нехватки вычислительных и вычислительных мощностей, а также ограниченных решений для хранения данных. 

Потребность в миниатюризации встроенных устройств с низким энергопотреблением в сочетании с оптимизацией моделей машинного обучения, чтобы сделать их более эффективными по энергопотреблению и памяти, проложила путь для TinyML, целью которого является внедрение моделей и методов машинного обучения на периферийных устройствах и платформах Интернета вещей. КрошечныйML обеспечивает обработку сигналов на устройствах Интернета вещей и обеспечивает встроенный интеллект, что устраняет необходимость передачи данных на облачные платформы для обработки. Успешное внедрение TinyML на устройствах Интернета вещей может в конечном итоге привести к повышению конфиденциальности и эффективности при одновременном снижении эксплуатационных расходов. Кроме того, что делает TinyML более привлекательным, так это то, что в случае недостаточного подключения он может предоставлять аналитику на месте. 

TinyML: Введение и обзор

TinyML — это инструмент машинного обучения, который способен выполнять на устройстве аналитику для различных модальностей восприятия, таких как звук, зрение и речь. Модели ML, созданные на основе инструмента TinyML, имеют низкие требования к энергопотреблению, памяти и вычислительным ресурсам, что делает их подходящими для встроенных сетей и устройств, работающих от батареи. Кроме того, низкие требования к TinyML делают его идеальным для развертывания моделей машинного обучения в среде Интернета вещей.

В текущем сценарии облачные системы машинного обучения сталкиваются с некоторыми трудностями, включая проблемы безопасности и конфиденциальности, высокое энергопотребление, надежность и проблемы с задержкой, поэтому модели на аппаратно-программных платформах предварительно устанавливаются. Датчики собирают данные, моделирующие физический мир, а затем обрабатывают их с помощью ЦП или МПУ (микропроцессора). MPU удовлетворяет потребности аналитической поддержки машинного обучения, обеспечиваемой сетями и архитектурой машинного обучения с поддержкой периферии. Архитектура Edge ML взаимодействует с облаком ML для передачи данных, а реализация TinyML может привести к значительному развитию технологии. 

Можно с уверенностью сказать, что TinyML — это объединение программного обеспечения, оборудования и алгоритмов, которые работают синхронно друг с другом для достижения желаемой производительности. Аналоговые вычисления или вычисления в памяти могут потребоваться для обеспечения лучшего и эффективного обучения аппаратному обеспечению и устройствам Интернета вещей, которые не поддерживают аппаратные ускорители. Что касается программного обеспечения, приложения, созданные с использованием TinyML, могут быть развернуты и реализованы на таких платформах, как Linux или встроенный Linux, а также на облачном программном обеспечении. Наконец, приложения и системы, построенные на алгоритме TinyML, должны иметь поддержку новых алгоритмов, которым требуются модели с малым объемом памяти, чтобы избежать высокого потребления памяти. 

Подводя итог, можно сказать, что приложения, созданные с использованием инструмента TinyML, должны оптимизировать принципы и методы машинного обучения, а также компактно разрабатывать программное обеспечение при наличии высококачественных данных. Затем эти данные необходимо записать в двоичные файлы, созданные с использованием моделей, обученных на машинах с гораздо большей производительностью и вычислительной мощностью. 

Кроме того, системы и приложения, работающие на инструменте TinyML, должны обеспечивать высокую точность при работе в более жестких условиях, поскольку требуется компактное программное обеспечение с низким энергопотреблением, которое поддерживает возможности TinyML. Кроме того, приложения или модули TinyML могут зависеть от заряда батареи для поддержки своей работы на периферийных встроенных системах. 

При этом к приложениям TinyML предъявляются два фундаментальных требования.

  1. Возможность масштабирования миллиардов дешевых встроенных систем. 
  2. Хранение кода в оперативной памяти устройства емкостью до нескольких КБ. 

Приложения TinyML с использованием передовых технологий

Одна из основных причин, почему TinyML является горячей темой в индустрии искусственного интеллекта и машинного обучения, заключается в его потенциальных приложениях, включая приложения на основе зрения и речи, диагностику здоровья, сжатие и классификацию шаблонов данных, интерфейс управления мозгом, периферийные вычисления, феномику, самообслуживание. -вождение автомобиля и многое другое. 

Речевые приложения

Речевая коммуникация

Обычно речевые приложения полагаются на традиционные методы связи, в которых все данные важны и передаются. Однако в последние годы семантическая коммуникация стала альтернативой традиционной коммуникации, поскольку при семантической коммуникации передается только смысл или контекст данных. Семантическая связь может быть реализована в речевых приложениях с использованием методологий TinyML. 

Некоторые из наиболее популярных приложений в индустрии речевых коммуникаций сегодня — это обнаружение речи, распознавание речи, онлайн-обучение, онлайн-обучение и целенаправленное общение. Эти приложения обычно потребляют больше энергии, а также предъявляют высокие требования к данным на хост-устройстве. Чтобы преодолеть эти требования, была представлена ​​новая библиотека TinySpeech, которая позволяет разработчикам создавать низковычислительную архитектуру, использующую глубокие сверточные сети для создания хранилища малой мощности. 

Чтобы использовать TinyML для улучшения речи, разработчики сначала рассмотрели размер модели улучшения речи, поскольку она была подвержена аппаратным ограничениям. Чтобы решить эту проблему, были применены структурированное сокращение и целочисленное квантование для модели улучшения речи RNN или рекуррентных нейронных сетей. Результаты показали, что размер модели должен быть уменьшен почти в 12 раз, а количество операций — почти в 3 раза. Кроме того, очень важно, чтобы ресурсы использовались эффективно, особенно при развертывании в приложениях с ограниченными ресурсами, которые выполняют приложения распознавания голоса. 

В результате для разделения процесса был предложен метод совместного проектирования приложений распознавания голоса и речи на основе TinyML. Разработчики использовали оконную операцию для разделения программного и аппаратного обеспечения таким образом, чтобы предварительно обработать необработанные голосовые данные. Похоже, метод сработал, поскольку результаты показали снижение энергопотребления оборудования. Наконец, в ближайшем будущем также существует потенциал для реализации оптимизированного разделения между совместным проектированием программного и аппаратного обеспечения для повышения производительности. 

Кроме того, недавние исследования предложили использовать датчик на базе телефона для систем распознавания речи, и это предложение направлено на замену предикторов LSTM слоем Conv1D, чтобы уменьшить потребности в вычислениях на периферийных устройствах. После реализации это предложение дало положительные результаты, поскольку SVD или разложение по сингулярным значениям успешно сжало модель, тогда как использование декодирования на основе WFST или взвешенных преобразователей конечных состояний привело к большей гибкости в смещении улучшения модели. 

Многие известные приложения распознавания речи, такие как виртуальные или голосовые помощники, живые субтитры и голосовые команды, используют для работы методы машинного обучения. Популярные голосовые помощники, такие как Siri и Google Assistant, проверяют облачную платформу каждый раз, когда получают какие-то данные, и это создает серьезные проблемы, связанные с конфиденциальностью и безопасностью данных. TinyML — жизнеспособное решение этой проблемы, поскольку оно направлено на распознавание речи на устройствах и устраняет необходимость переноса данных на облачные платформы. Одним из способов добиться распознавания речи на устройстве является использование Tiny Transducer, модели распознавания речи, в которой используется уровень DFSMN или последовательного блока памяти с глубокой прямой связью в сочетании с одним слоем Conv1D вместо слоев LSTM, чтобы снизить требования к вычислениям. и параметры сети. 

Слуховые аппараты

Потеря слуха является серьезной проблемой здравоохранения во всем мире, и способность людей слышать звуки обычно ослабевает с возрастом, и это серьезная проблема в странах, где наблюдается старение населения, включая Китай, Японию и Южную Корею. Слуховые аппараты сейчас работают по простому принципу усиления всех входящих звуков из окружающей среды, что затрудняет человеку различение или различие желаемого звука, особенно в шумной обстановке. 

TinyML может быть жизнеспособным решением этой проблемы, поскольку использование модели TinyLSTM, использующей алгоритм распознавания речи для слуховых аппаратов, может помочь пользователям различать разные звуки. 

Приложения на основе машинного зрения

TinyML может сыграть решающую роль в обработке данных. компьютерное зрение на основе наборов данных, поскольку для более быстрого вывода эти наборы данных необходимо обрабатывать на самой периферийной платформе. Чтобы достичь этого, модель TinyML сталкивается с практическими проблемами, с которыми приходится сталкиваться при обучении модели с использованием платы микроконтроллера OpenMV H7. Разработчики также предложили архитектуру для распознавания американского языка жестов с помощью микроконтроллера ARM Cortex M7, который работает только с 496 КБ ОЗУ с кадровым буфером. 

Реализация TinyML для приложений на основе компьютерного зрения на периферийных платформах потребовала от разработчиков решения основной проблемы CNN или сверточных нейронных сетей с высокой ошибкой обобщения, а также высокой точностью обучения и тестирования. Однако реализация не обеспечивает эффективного обобщения изображений в новых сценариях использования, а также фонов с шумом. Когда разработчики использовали метод интерполяции, модель показала точность более 98% на тестовых данных и около 75% при обобщении. 

Кроме того, было замечено, что когда разработчики использовали метод интерполяционного дополнения, точность модели во время квантования падала, но в то же время наблюдалось увеличение скорости вывода модели и обобщения классификации. Разработчики также предложили метод дальнейшего повышения точности обучения модели обобщения на данных, полученных из различных источников, и тестирования производительности для изучения возможности ее развертывания на периферийных платформах, таких как портативные умные часы. 

Кроме того, дополнительные исследования по CNN указал, что с архитектурой CNN можно развернуть и достичь желаемых результатов на устройствах с ограниченными ресурсами. Недавно разработчикам удалось разработать платформу для обнаружения медицинских масок на микроконтроллере ARM Cortex M7 с ограниченными ресурсами, используя TensorFlow lite с минимальным потреблением памяти. Размер модели после квантования составлял около 138 КБ, тогда как скорость помех на целевой плате составляла около 30 кадров в секунду. 

Еще одним применением TinyML для приложения на основе компьютерного зрения является реализация устройства распознавания жестов, которое можно закрепить на трости, чтобы помочь слабовидящим людям легко ориентироваться в своей повседневной жизни. Для его разработки разработчики использовали набор данных жестов и использовали этот набор данных для обучения модели ProtoNN с помощью алгоритма классификации. Результаты, полученные с помощью установки, были точными, конструкция была недорогой и давала удовлетворительные результаты. 

Еще одним важным применением TinyML является индустрия беспилотных и автономных транспортных средств из-за нехватки ресурсов и встроенных вычислительных мощностей. Чтобы решить эту проблему, разработчики представили метод обучения с замкнутым циклом, основанный на модели TinyCNN, который предлагает модель онлайн-предсказателя, которая захватывает изображение во время выполнения. Основная проблема, с которой столкнулись разработчики при внедрении TinyML для автономного вождения, заключалась в том, что модель принятия решений, обученная для работы с офлайн-данными, может не работать одинаково хорошо при работе с онлайн-данными. Чтобы максимально увеличить возможности применения автономных автомобилей и беспилотных автомобилей, модель в идеале должна иметь возможность адаптироваться к данным в реальном времени. 

Классификация и сжатие шаблонов данных

Одна из самых больших задач текущей платформы TinyML — облегчить ее адаптацию к данным онлайн-обучения. Чтобы решить эту проблему, разработчики предложили метод, известный как TinyOL или TinyML Online Learning, позволяющий проводить обучение с помощью поэтапного онлайн-обучения на микроконтроллерах, что позволяет модели обновляться на периферийных устройствах IoT. Реализация была достигнута с использованием языка программирования C++, а в архитектуру TinyOL был добавлен дополнительный уровень. 

Кроме того, разработчики также выполнили автоматическое кодирование сенсорной платы Arduino Nano 33 BLE, и обученная модель смогла классифицировать новые шаблоны данных. Кроме того, работа по разработке включала разработку эффективных и более оптимизированных алгоритмов для нейронных сетей для поддержки шаблонов обучения устройств в режиме онлайн. 

Исследования TinyOL и TinyML показали, что количество слоев активации является серьезной проблемой для периферийных устройств IoT с ограниченными ресурсами. Чтобы решить эту проблему, разработчики представили новую модель TinyTL или Tiny Transfer Learning, чтобы сделать использование памяти поверх периферийных устройств IoT намного более эффективным и избежать использования промежуточных уровней для целей активации. Кроме того, разработчики также представили совершенно новый модуль смещения, известный как «облегченный остаточный модуль», чтобы максимизировать возможности адаптации и, конечно же, позволить экстракторам признаков обнаруживать остаточные карты признаков. 

По сравнению с полной точной настройкой сети результаты были в пользу архитектуры TinyTL, поскольку результаты показали, что TinyTL снижает нагрузку на память примерно в 6.5 раз с умеренной потерей точности. Когда последний слой был точно настроен, TinyML повысил точность на 34% с умеренной потерей точности. 

Кроме того, исследования по сжатию данных показали, что алгоритмы сжатия данных необходимо управлять собранными данными на портативном устройстве, и для достижения того же разработчики предложили TAC или Tiny Anomaly Compressor. TAC смог превзойти алгоритмы SDT или Swing Door Trending, а также DCT или дискретного косинусного преобразования. Кроме того, алгоритм TAC превзошел алгоритмы SDT и DCT, достигнув максимальной степени сжатия более 98% и имея лучшее пиковое соотношение сигнал/шум среди трех алгоритмов. 

Диагностика здоровья

Глобальная пандемия Covid-19 открыла новые возможности для внедрения TinyML, поскольку теперь это важная практика для постоянного выявления респираторных симптомов, связанных с кашлем и простудой. Для обеспечения бесперебойного мониторинга разработчики предложили модель CNN Tiny RespNet, которая работает на мультимодельной настройке, а модель развернута на ПЛИС Xilinx Artix-7 100t, которая позволяет устройству обрабатывать информацию параллельно, имеет высокую эффективность, и низкое энергопотребление. Кроме того, модель TinyResp также использует речь пациентов, аудиозаписи и демографическую информацию в качестве входных данных для классификации, а симптомы пациента, связанные с кашлем, классифицируются с использованием трех различных наборов данных. 

Кроме того, разработчики также предложили модель TinyML, позволяющую выполнять вычисления глубокого обучения на периферийных устройствах, под названием TinyDL. Модель TinyDL может быть развернута на периферийных устройствах, таких как умные часы и носимые устройства, для диагностики здоровья, а также способна выполнять анализ производительности для снижения пропускной способности, задержек и энергопотребления. Чтобы добиться развертывания TinyDL на портативных устройствах, модель LSTM была разработана и обучена специально для портативного устройства, и в качестве входных данных ей были переданы собранные данные. Модель имеет показатель точности от 75 до 80%, и она также может работать с данными вне устройства. Эти модели, работающие на периферийных устройствах, продемонстрировали потенциал решения текущих проблем, с которыми сталкиваются устройства IoT. 

Наконец, разработчики также предложили еще одно приложение для мониторинга здоровья пожилых людей, оценивая и анализируя позы их тела. Модель использует агностическую структуру на устройстве, которая позволяет модели обеспечивать проверку и быстрое содействие для выполнения адаптации. В модели реализованы алгоритмы определения позы тела в сочетании с ориентирами лица для определения пространственно-временной позы тела в реальном времени. 

EdgeComputing

Одно из основных применений TinyML находится в области периферийных вычислений, поскольку с увеличением использования устройств Интернета вещей для подключения устройств по всему миру крайне важно настраивать периферийные устройства, поскольку это поможет снизить нагрузку на облачные архитектуры. . Эти периферийные устройства будут иметь отдельные центры обработки данных, что позволит им выполнять высокоуровневые вычисления на самом устройстве, а не полагаться на облачную архитектуру. В результате это поможет снизить зависимость от облака, уменьшить задержку, повысить безопасность и конфиденциальность пользователей, а также сократить пропускную способность. 

Устройства Edge, использующие алгоритмы TinyML, помогут решить текущие ограничения, связанные с требованиями к мощности, вычислительным ресурсам и памяти, и это показано на изображении ниже. 

Кроме того, TinyML также может расширить использование и применение беспилотных летательных аппаратов или БПЛА, устраняя текущие ограничения, с которыми сталкиваются эти машины. Использование TinyML может позволить разработчикам реализовать энергоэффективное устройство с низкой задержкой и высокой вычислительной мощностью, которое может выступать в качестве контроллера для этих БПЛА. 

Интерфейс мозг-компьютер или BCI

TinyML имеет широкое применение в сфере здравоохранения и может оказаться очень полезным в различных областях, включая обнаружение рака и опухолей, прогнозирование здоровья с использованием сигналов ЭКГ и ЭЭГ, а также эмоциональный интеллект. Использование TinyML может позволить адаптивной глубокой стимуляции мозга или aDBS успешно адаптироваться к клинической адаптации. Использование TinyMl также может позволить ADBS идентифицировать биологические метки, связанные с заболеваниями, и их симптомы, используя инвазивные записи сигналов мозга. 

Кроме того, индустрия здравоохранения часто включает сбор большого количества данных о пациенте, которые затем необходимо обработать для принятия конкретных решений по лечению пациента на ранних стадиях заболевания. В результате крайне важно создать систему, которая будет не только высокоэффективной, но и очень безопасной. Когда мы объединяем приложение IoT с моделью TinyML, рождается новая область, названная H-IoT или Интернет вещей в здравоохранении, а основными приложениями H-IoT являются диагностика, мониторинг, логистика, контроль распространения и вспомогательные системы. Если мы хотим разработать устройства, способные удаленно обнаруживать и анализировать состояние здоровья пациента, важно разработать систему, имеющую глобальный доступ и низкую задержку. 

Автономные транспортные средства

Наконец, TinyML может найти широкое применение в индустрии автономных транспортных средств, поскольку эти транспортные средства могут использоваться различными способами, включая отслеживание людей, военные цели и промышленные применения. Основным требованием к этим транспортным средствам является способность эффективно идентифицировать объекты во время их поиска. 

На данный момент автономные транспортные средства и автономное вождение являются довольно сложной задачей, особенно при разработке мини-автомобилей или транспортных средств небольшого размера. Недавние разработки показали потенциал для улучшения применения автономного вождения для мини-автомобилей за счет использования архитектуры CNN и развертывания модели поверх GAP8 MCI. 

Вызовы

TinyML — относительно новая концепция в индустрии искусственного интеллекта и машинного обучения, и, несмотря на прогресс, она все еще не настолько эффективна, как нам нужно для массового развертывания периферийных устройств и устройств Интернета вещей. 

Самая большая проблема, с которой в настоящее время сталкиваются устройства TinyML, — это энергопотребление этих устройств. В идеале ожидается, что встроенные периферийные устройства и устройства IoT будут иметь срок службы батареи более 10 лет. Например, в идеальном состоянии IoT-устройство, работающее от аккумулятора емкостью 2 Ач, должно иметь срок службы более 10 лет, учитывая, что энергопотребление устройства составляет около 12 Ач. uа. Однако в данном состоянии IoT-архитектуры с датчиком температуры, блоком MCU и модулем Wi-Fi ток потребления составляет около 176.4 мА, и при таком энергопотреблении батарея прослужит всего около 11 часов. из требуемых 10 лет срока службы батареи. 

Ограничения в ресурсах

Для поддержания согласованности алгоритма крайне важно поддерживать доступность электропитания, и, учитывая текущий сценарий, ограниченная доступность электропитания для устройств TinyML является критической проблемой. Кроме того, ограничения памяти также являются серьезной проблемой, поскольку для эффективной и точной работы развертывания моделей часто требуется большой объем памяти. 

Аппаратные ограничения

Аппаратные ограничения затрудняют широкомасштабное развертывание алгоритмов TinyML из-за неоднородности аппаратных устройств. Существуют тысячи устройств, каждое из которых имеет свои собственные аппаратные характеристики и требования, поэтому алгоритм TinyML в настоящее время необходимо настраивать для каждого отдельного устройства, что делает массовое развертывание серьезной проблемой. 

Ограничения набора данных

Одна из основных проблем моделей TinyML заключается в том, что они не поддерживают существующие наборы данных. Это проблема для всех периферийных устройств, поскольку они собирают данные с помощью внешних датчиков, и эти устройства часто имеют ограничения по мощности и энергопотреблению. Следовательно, существующие наборы данных не могут использоваться для эффективного обучения моделей TinyML. 

Заключение

Развитие методов машинного обучения вызвало революцию и изменение взглядов на экосистему Интернета вещей. Интеграция моделей машинного обучения в устройства IoT позволит этим периферийным устройствам самостоятельно принимать разумные решения без какого-либо вмешательства внешнего человека. Однако традиционно модели машинного обучения часто имеют высокие требования к мощности, памяти и вычислительным ресурсам, что делает их унифицированными для развертывания на периферийных устройствах, которые часто ограничены в ресурсах. 

В результате новая ветвь искусственного интеллекта была посвящена использованию машинного обучения для устройств Интернета вещей и получила название TinyML. TinyML — это платформа машинного обучения, которая позволяет даже устройствам с ограниченными ресурсами использовать возможности искусственного интеллекта и машинного обучения для обеспечения более высокой точности, интеллекта и эффективности. 

В этой статье мы говорили о реализации моделей TinyML на устройствах Интернета вещей с ограниченными ресурсами, и эта реализация требует обучения моделей, развертывания моделей на оборудовании и выполнения методов квантования. Однако, учитывая текущий объем, модели машинного обучения, готовые к развертыванию на IoT и периферийных устройствах, имеют ряд сложностей и ограничений, включая проблемы с аппаратным обеспечением и совместимостью инфраструктур. 

«Инженер по профессии, писатель душой». Кунал — технический писатель с глубокой любовью и пониманием ИИ и машинного обучения, стремящийся упростить сложные концепции в этих областях с помощью своей увлекательной и информативной документации.