スタブ 従来の機械学習は依然として有効ですか? - Unite.AI
私達と接続

Artificial Intelligence

従来の機械学習は依然として有効ですか?

mm

公開済み

 on

従来の機械学習は依然として有効ですか?

近年、生成 AI は複雑な AI タスクの解決において有望な結果を示しています。 最新の AI モデルは次のとおりです AI言語モデルを活用してコードのデバッグからデータの異常検出まで、, 吟遊詩人, ラマ, DALL-E.3, SAM は、視覚的な質問応答、セグメンテーション、推論、コンテンツ生成などの学際的な問題を解決する際に、優れた能力を実証してきました。

さらに、 マルチモーダル AI 複数のデータ モダリティ、つまりテキスト、画像、オーディオ、ビデオを同時に処理できる技術が登場しました。 こうした進歩により、「私たちは終末に近づいているのではないか」と疑問に思うのは自然なことです。 従来の機械学習 (ML)?

この記事では、現代の生成 AI イノベーションに関する従来の機械学習の状況を見ていきます。

従来の機械学習とは何ですか? – その限界は何ですか?

従来の機械学習は、主に統計に基づくさまざまなアルゴリズムを含む広義の用語です。 従来の ML アルゴリズムの主なタイプは次の XNUMX つです。 監視されたものと監視されていないもの。 これらのアルゴリズムは、構造化されたデータセットからモデルを開発するように設計されています。

標準的な従来の機械学習アルゴリズムには次のものがあります。

  • 線形、なげなわ、リッジなどの回帰アルゴリズム。
  • K 平均法クラスタリング。
  • 主成分分析 (PCA)。
  • サポート ベクター マシン (SVM)。
  • デシジョン ツリーやランダム フォレストなどのツリーベースのアルゴリズム。
  • 勾配ブースティングなどのブースティング モデル XGブースト.

従来の機械学習の限界

従来の ML には次の制限があります。

  1. 限られたスケーラビリティ: これらのモデルは、多くの場合、大規模で多様なデータセットに合わせて拡張するために支援が必要になります。
  2. データの前処理と特徴エンジニアリング: 従来の ML では、モデルの要件に従ってデータセットを変換するために広範な前処理が必要です。 また、特徴エンジニアリングには時間がかかり、データ特徴間の複雑な関係を取得するために複数回の反復が必要になる場合があります。
  3. 高次元および非構造化データ: 従来の ML は、画像、音声、ビデオ、ドキュメントなどの複雑なデータ型を処理するのに苦労しました。
  4. 目に見えないデータへの適応性: これらのモデルは、そのモデルの一部ではなかった現実世界のデータにはうまく適応できない可能性があります。 トレーニングデータ.

ニューラル ネットワーク: 機械学習からディープ ラーニングなどへの移行

ニューラル ネットワーク: 機械学習からディープ ラーニングなどへの移行

ニューラル ネットワーク (NN) モデルは、従来の機械学習モデルよりもはるかに複雑です。 最も単純な NN – 多層パーセプトロン (MLP) 人間の脳の機能と同様に、情報を理解してタスクを実行するために互いに接続された複数のニューロンで構成されています。

ニューラル ネットワーク技術の進歩により、従来からの移行の基礎が形成されました。 機械学習からディープラーニングへ。たとえば、コンピューター ビジョン タスク (オブジェクト検出と画像セグメンテーション) に使用される NN は、 畳み込みニューラル ネットワーク (CNN)、 といった アレックスネット, レスネット, YOLO.

現在、生成 AI テクノロジーはニューラル ネットワーク技術をさらに一歩進め、さまざまな AI ドメインで優れた能力を発揮できるようにしています。たとえば、自然言語処理タスク (テキストの要約、質問応答、翻訳など) に使用されるニューラル ネットワークは、 トランスフォーマー。 代表的な変圧器のモデルには次のものがあります。 ベルト, GPT-4, T5。 これらのモデルは、ヘルスケア、小売、マーケティング、 ファイナンス, etc.

従来の機械学習アルゴリズムはまだ必要ですか?

従来の機械学習アルゴリズムはまだ必要ですか?

ニューラル ネットワークとトランスフォーマーなどのその最新のバリアントが多くの注目を集めていますが、従来の ML 手法は依然として重要です。 それらが依然として重要である理由を見てみましょう。

1. よりシンプルなデータ要件

ニューラル ネットワークはトレーニングに大規模なデータセットを必要としますが、ML モデルはより小さく単純なデータセットで重要な結果を達成できます。 したがって、小規模な構造化データセットの場合は、ML がディープ ラーニングよりも好まれ、またその逆も同様です。

2. シンプルさと解釈可能性

従来の機械学習モデルは、より単純な統計モデルと確率モデルに基づいて構築されています。 たとえば、次のような最適な行は、 線形回帰 統計演算である最小二乗法を使用して入出力関係を確立します。

同様に、デシジョン ツリーはデータを分類するために確率原理を利用します。 このような原則を使用すると、解釈可能性が提供され、AI 実践者が ML アルゴリズムの仕組みを理解しやすくなります。

トランスフォーマーや拡散モデルなどの最新の NN アーキテクチャ (通常、次のような画像生成に使用されます) 安定拡散 or ミッドジャーニー)は複雑な多層のネットワーク構造を持っています。 このようなネットワークを理解するには、高度な数学的概念を理解する必要があります。 そのため、これらは「ブラック ボックス」とも呼ばれます。

3.リソース効率

大規模言語モデル (LLM) などの最新のニューラル ネットワークは、計算要件に応じて高価な GPU のクラスター上でトレーニングされます。 たとえば、GPT4 は次のようにトレーニングされたと報告されています。 25000 Nvidia GPU 90〜100日間。

ただし、高価なハードウェアと長時間のトレーニングは、すべての実務者や AI チームにとって実現可能なわけではありません。 一方で、従来の機械学習アルゴリズムの計算効率により、実践者は限られたリソースでも有意義な結果を達成できます。

4. すべての問題に深層学習が必要なわけではない

深層学習 すべての問題に対する絶対的な解決策ではありません。 ML がディープ ラーニングよりも優れたパフォーマンスを発揮する特定のシナリオが存在します。

例えば、 医学的診断と予後 データが限られている場合、ML アルゴリズムは、 異常検出 REMED のように、深層学習よりも優れた結果が得られます。 同様に、従来の機械学習は、計算能力が低いシナリオで重要です。 柔軟で効率的なソリューション.

主に、あらゆる問題に最適なモデルの選択は、組織または実務者のニーズと当面の問題の性質によって異なります。

2023 年の機械学習

2023 年の機械学習

を使用して生成された画像 レオナルド AI

2023 年、従来の機械学習は進化を続け、ディープラーニングや生成 AI と競合します。 業界では、特に構造化データセットを扱う場合にいくつかの用途があります。

たとえば、多くの 動きの速い消費財(FMCG) 企業は、パーソナライズされた製品の推奨、価格の最適化、在庫管理、サプライ チェーンの最適化などの重要なタスクを ML アルゴリズムに依存して大量の表形式データを処理しています。

さらに、多くの 視覚と言語モデル は依然として従来の技術に基づいており、ハイブリッド アプローチと新しいアプリケーションでソリューションを提供しています。 たとえば、「時系列予測に深層学習モデルは本当に必要ですか?」では、勾配ブースティング回帰ツリー (GBRT) がどのように効率的であるかについて説明しました。 時系列予測 ディープニューラルネットワークよりも。

ML の解釈可能性は、次のような技術を使用することで依然として非常に価値があります。 形状 (Shapley 添加剤の説明) および ライム (ローカルで解釈可能なモデルに依存しない説明)。 これらの手法は、複雑な ML モデルを説明し、その予測に関する洞察を提供するため、ML 実践者がモデルをさらに深く理解するのに役立ちます。

最後に、従来の機械学習は、スケーラビリティ、データの複雑さ、リソースの制約に対処するさまざまな業界にとって、依然として堅牢なソリューションです。 これらのアルゴリズムはデータ分析と予測モデリングにとってかけがえのないものであり、今後も データサイエンティストの武器庫.

このようなトピックに興味がある場合は、調べてください AIを統合する さらなる洞察のために。