

レゴの玩具システムは数世代にわたって存在し、多くの人々によって想像力の刺激として考えられてきました。何人かのユーザーは、自分のイメージに基づいたレゴのフィギュアを持ってセットで遊ぶことができるのではないかと想像したことがあるでしょう。その事実を認識して、Legoは、その夢を実現しようと決心しました。 Gizmodoによると、レゴは2020年にニューヨークにオープンするテーマパークを訪れる誰でもその夢を実現しようとします。 これを行うために、同社は高度なモーショントラッキングとニューラルネットワークの顔認識を採用します。 テーマパーク、Legoland New York Resortは、ニューヨーク市の北西約60マイルのゴーシェンに位置し、2020年7月4日にオープンします。 Mobile ID Worldによると、この可能性は、「レゴファクトリーアドベンチャーライド」に特集されています。このライドでは、パークのゲストが「工場」のツアーに参加し、有名な小さなプラスチックのブロックがどのように作られているかを見学します。「HolovisのHolotrackテクノロジーを使用して、レゴファクトリーアドベンチャーライドでは、パークのゲストがレゴの有名なミニチュアフィギュアの1つに変身するセグメントが特集されています。 Holotrackは、ディープフェイクビデオを可能にしたのと同じ人工知能とディープラーニング技術を利用して、個人のイメージをスクリーンに翻訳します。 ゲストのミニフィギュアは、ゲストの動きや外見、髪、眼鏡、服、顔の表情を真似ます。 ゲストをレゴのフィギュアにレンダリングするのにかかる時間は約0.5秒です。」しかし、これはレゴが関与する新しいAI開発の最初ではありません。 2013年にレゴエンジニアリングは、人工知能を使用して、レゴのブロックを使用して動きを探索しました。 2014年、研究者やプログラマーは、Lego Mindstorms EV3 ロボットにAIを使用して、ワームの脳をEV3ロボットのセンサーとモーターに接続するコンピュータープログラムを使用して2004年と2016年には、レゴを使用してAIを教える方法を研究した2つの研究プロジェクトが発表されました。 最初のプロジェクトでは、LegoのMindstormsを使用しましたが、後者のプロジェクトは、Western Washington Universityによって発表され、EV3を含むレゴシステムを使用したAIの12年間の教習経験について論じました。しかし、同社のAI分野における最大の進歩は今年、8月に発表したときでした。 同社は、「視覚障害者の方がレゴの説明書に従うのを支援するための新しいシステムの試験を開始します。」このシステムは、オーディオ&ブレイルビルディングインストラクションと呼ばれ、「デジタル伝統スタイルのビジュアルインストラクションを音声またはタクティルブレイルディレクションとペアにするためにAIを使用し、盲目のレゴファンであるMatthew Shifrinと共同で開発されました。」このシステムは開発の初期段階にあり、現在「いくつかのセットをサポートしていますが、開発チームはユーザーからのフィードバックを求めています。」 このフィードバックは、2020年上半期にさらに多くのセットを追加し、最終的にはすべての新しいレゴ製品の発売をサポートするために使用される予定です。 新しいAI駆動プログラムによって作成された公式の説明書は、legoaudioinstructions.comから無料で入手できます。


Udemy、最大のオンライン学習ソースは、Udemy for Business 2020 ワークプレイス ラーニング トレンド レポート:将来のスキル (48 pp.、PDF、opt-in)を公開した。 Forbes によると、このレポートは、AIを活用した将来の仕事への準備が重要であると主張している。レポートによると、「金融の世界では、AIとコンピューターによって管理される投資ファンドが現在、アメリカの株式市場の35%を占めている」という最近の The Economist の記事 The rise of the financial machines を引用している。Udemyによると、AIは仕事の世界を再構成している。同社は、65%のリーダーがAIとロボティクスは人材資本において重要または非常に重要な問題であると述べている。ただし、調査対象の組織の26%のみが、これらの新しいテクノロジーの影響に備えている、または十分に備えている。Udemyは2020年の5つの重要なトレンドを指摘している。トレンド1 – AIは2020年に主流になるトレンド2 – 2020年は人間と機械の全潜在能力を実現することトレンド3...


人工知能がこれまでに示してきた進歩や利点とともに、人種や性別の偏見などの不良な副作用も報告されてきた。そこで、sciencealert.comは「科学者は、先進的な思考システムが公平であるか、あるいは安全であることをどう保証することができるのか」という疑問を提起している。答えは、スタンフォード大学とマサチューセッツ大学アマースト校の研究者による報告書にあるかもしれない。報告書の題は、知能機械の不良な行動を防ぐである。 eurekaalert.orgは、この報告書についての記事で、AIが今やデリケートなタスクを扱い始めているため、「政策立案者は、コンピュータ科学者に、自動化システムが過度のリスクや人種・性別の偏見などの望ましくない結果を最小限に抑え、あるいは完全に避けるように設計されていることを保証するよう求めている」と述べている。この研究チームが提示した報告書は、「性別の偏見を避ける」という曖昧な目標を、機械学習アルゴリズムがAIアプリケーションをそのような行動を避けるようにトレーニングできるような、正確な数学的基準に翻訳する新しい手法を概説している。目的は、スタンフォード大学のコンピュータ科学の助教授であり、論文の筆頭著者であるエマ・ブルンスキルによれば、「私たちは、人間のユーザーの価値を尊重し、自律システムに置く信頼を正当化するAIを進歩させたい」ということである。アイデアは、「安全でない」または「公平でない」結果や行動を数学的用語で定義することであった。これにより、研究者によれば、「これらの望ましくない結果を回避する方法をデータから学習できるアルゴリズムを作成することが可能になる」ということである。2つ目の目標は、「ユーザーが、どのような不良な行動を制限したいのかを簡単に指定できる一連の手法を開発し、機械学習の設計者が、過去のデータを使用してトレーニングされたシステムが現実の状況で信頼できるものであることを確信を持って予測できるようにする」ことであった。ScienceAlertによれば、チームはこの新しいシステムを、アイザック・アシモフの有名なSF小説シリーズ『ファウンデーション』の中心人物にちなんで『セルドニアン』アルゴリズムと命名した。マサチューセッツ大学アマースト校のコンピュータ科学の助教授であり、論文の筆頭著者であるフィリップ・トーマスは、「私は『糖尿病』の治療のためにセルドニアン・アルゴリズムを使用する場合、不良な行動とは危険な低血糖または低血糖症を意味する」と述べている。「私は、インスリンポンプのコントローラーを改善しようとしている間、低血糖症の頻度を増加させるような変更を加えないように」と機械に指示できる。ほとんどのアルゴリズムでは、このような制約を課す方法がない。初期の設計には含まれていなかったからだ」と述べている。トーマスは、「このセルドニアン・フレームワークにより、機械学習の設計者が、行動の回避を可能にする指示をすべての種類のアルゴリズムに組み込むことが容易になり、トレーニングされたシステムが現実の世界で正常に機能する確率を評価することができる」と述べている。エマ・ブルンスキルは、「安全性や公平性のような価値を尊重するアルゴリズムを作成する方法について考えることは、社会がAIにますます依存しているため、非常に重要である」と述べている。


Venture Beat (VB)は、週刊レポートの1つを、マルチモーダル学習の開発における人工知能の利点に費やした。そのきっかけは、レポートによってABI Researchが行ったものだった。重要な概念は、「データセットはAIシステムの基本的な構成要素である」という事実にあり、データセットがなければ、「モデルは予測を導く関係を学習できない」ということである。ABIレポートは、「AIデバイスの総設置台数は2019年の26.9億から2024年の44.7億に増加するが、比較的少数のデバイスのみが短期的には相互運用可能になる」と予測している。これは、多大な時間、エネルギー、リソースの浪費となる可能性がある。「それぞれのデバイスを通じて流れるギガバイトからペタバイトのデータを1つのAIモデルまたはフレームワークに組み合わせるのではなく、それぞれ独立して、異質的に動作して、与えられたデータを理解するために働くことになる」これを克服するために、ABIはマルチモーダル学習を提案している。これは、さまざまなセンサーと入力からのデータを1つのシステムに統合する方法論である。「マルチモーダル学習は、補足的な情報や傾向を運ぶことができ、通常、学習プロセスにすべてを含めることでのみ明らかになる」VBは、画像とテキストのキャプションを考慮する実行可能な例を提示している。「異なる単語が類似の画像とペアになっている場合、これらの単語はおそらく同じ物体や事物を説明するために使用される。逆に、単語が異なる画像の隣に現れる場合、これはこれらの画像が同じ物体を表すことを意味する。したがって、AIモデルがテキストの説明から画像の物体を予測できるはずであり、実際、学術的な文献の集まりはこれが事実であることを証明している」可能な利点にもかかわらず、ABIは、IBM、Microsoft、Amazon、Googleなどのテクノロジー大手企業が依然として主にユニモーダルシステムに焦点を当てていることを指摘している。理由の1つは、そのような切り替えが表す課題である。それでも、ABIの研究者は、「出荷されるデバイスの総数は2017年の394万から2023年の5.1412億に増加することになる。ロボティクス、消費者、ヘルスケア、メディア、エンターテインメント分野での採用によって促進される」」と予測している。マルチモーダル学習をすでに実装している企業の例として、Waymoを挙げており、同社は「ハイパーアウェアな自律走行車」を構築するためにこのアプローチを使用している。また、Intel Labsでは、同社のエンジニアリングチームが「現実世界の環境でのセンサーデータの収集技術を調査している」。Intel LabsのプリンシパルエンジニアであるOmesh Tickooは、VBに「私たちが行ったことは、時間帯などのコンテキストを判断する技術を使用して、センサーのデータが最高品質でないことを示すシステムを構築したことである。与えられた信頼値に基づいて、異なるセンサーを異なる間隔で比較して、求めている答えを得るために最適な組み合わせを選択する」VBは、「ユニモーダル学習は、画像認識や自然言語処理などのアプリケーションで非常に効果的であるため、依然として優勢である」と述べている。同時に、「電子機器がより安くなり、コンピューティングがよりスケーラブルになると、マルチモーダル学習はおそらくより重要性を増すだろう」と予測している。


As The VergeとCNETが報じているように、Googleはアプリケーションに2つの新しいAI機能を追加しています。1つ目は、Google Docsユーザーを支援するSmart Compose機能で、2つ目は、Duplex予約システムを介して映画チケットを購入できる機能です。Smart ComposeSmart Composeが完全に利用可能になると、ユーザーは「インボックス以外のAI駆動の書き込み提案にアクセスできるようになります。」現在、「ドメイン管理者のみがベータに登録できます。」この新しい機能は、Googleの機械学習モデルを使用し、ユーザーの「過去の書き込みを研究して、書き込みをパーソナライズします(Gmailでは設定でこの機能を無効にできます)。」理論的には、これは、Smart Composeがユーザーの書き込みスタイルに基づいて書き込み提案を提供することを意味します。The Vergeは、「 Google DocsへのSmart Composeは、ツールにとって大きな進歩となり、より広い書き込みスタイルのAI自動提案に挑戦することになる。」と述べています。この新しいツールは、アプリケーションで作成できるすべてのドキュメントに適用できます。「学校の宿題から企業の計画書まで」、小説の初稿まで。当初、GoogleはSmart Composeの範囲を制限し、ビジネスにのみ対象を絞ります。上記のように、Smart Compose for Docsはベータ版のみで、英語のみで、ドメイン管理者のみがテストに参加できます。(ここで登録できます。)Google DuplexGoogleが11月21日に発表したもう1つの機能は、Duplex on the Webです。これは、ユーザーが簡単に映画チケットを購入できる予約サービスとして使用できるツールです。CNETによると、「このサービスはAndroid電話で利用できます。」このサービスを使用するには、ユーザーはアシスタント(Googleのデジタルヘルパーソフトウェアで、AmazonのAlexaやAppleのSiriに似ています)に、特定の映画の近隣の上映時間を調べるように依頼します。ソフトウェアは次に、GoogleのChromeブラウザを開き、チケットを探します。「このサービスを提供するために、Googleは「70の映画館やチケット会社、AMC、Fandango、Odeonなどと提携しました。」会社は次に、予約システムを車のレンタル予約に拡大する予定です。ツールに含まれるAIソフトウェアは、「人間の会話に基づいており、’えー’や’あー’のような発話の癖を使用しています。」実際の人と同じように、応答する前に一時停止したり、特定の単語を伸ばしたりして、思考時間を買うように話します。」Duplexは、昨年に初めて登場し、レストランやヘアサロンに予約することができました。「Googleは後に、開示が組み込まれていることを確認し、ユーザーが自動化されたソフトウェアと話していることを知ることができるようにしました。」説明されているように、映画チケットの予約に使用する新しいDuplexバージョンは、次のように機能します。「アシスタントに映画チケットを要求すると、ソフトウェアはChromeでチケット販売サイトを開き、フィールドに入力開始します。」このシステムは、カレンダー、Gmailインボックス、Chromeの自動入力(クレジットカードやログイン情報など)から収集されたデータを使用して、フォームに入力します。「プロセス中、ファイルをダウンロードしているようにプログレスバーが表示されます。」システムがさらに情報(価格や座席の選択など)を必要とする場合は、プロセスが一時停止し、選択を求めます。完了すると、予約または支払いを確認するためにタップします。」


オンラインポータル zoals Slashgear やその他のサイトは、テクノロジー大手のソニーが人工知能の開発に焦点を当てた新しいグローバル部門を立ち上げたというニュースを報じています。目標は、ゲーム、写真、さらには料理にMAを適用することです。新しい部門は世界中にオフィスを設ける予定です。報告によると、ソニー・コンピュータサイエンス研究所の会長兼CEOである北野宏明が、ソニーAIのグローバルヘッドになる予定です。ピーター・ストーンは、強化学習とロボティクスの豊富な背景を持つコンピュータサイエンスの研究者で、米国支部の責任者になる予定です。このニュースは、ソニーが 公式プレスリリース を発表したことと一致しています。同社は、カーネギーメロン大学(CMU)とAIおよびロボティクスの共同研究に関する契約を締結しました。初期の努力は、料理と配達に焦点を当てています。すでにAI開発努力を強化しようとしているソニーは、Aiboロボットドッグ を復活させました。新しいバージョンは、「クラウド処理、顔認識、学習AIなどの機能をフルに活用して、よりリアルで魅力的なペットになる」ということです。Aiboの開発は表面上では「人工知能の遊び心のある解釈」と見えるかもしれませんが、ソニーの目的は、そんなテクノロジーが「人間の想像力と創造性を人工知能で解き放つ」方法を探ることです。同社のさまざまな部門を利用し、新しい潜在的な応用を見つけるために、既存のビジネスを超えて探る予定です。このことを足掛かりに、ソニーは日本、米国、ヨーロッパのチームが「3つのフラグシッププロジェクト」を立ち上げる予定です。そのうちの1つは、先ほど述べたCMUとのガストロノミー研究です。他の2つの計画分野は、ゲームとイメージング&センシングです。ソニーは、ゲームは広くAI実験で使用されているため、ゲームに焦点を当てていると述べています。「そして、ゲームワールドは、人工知能を開発するための一般的に実装されている研究方法です。」 もちろん、ソニーの製品にはより直接的な応用があります。新しいAIチームは、「PlayStationチームがスマートなゲームキャラクターを開発するのを支援する」ことができます。イメージングとセンシングについては、ソニーは、人工知能の「感覚器官」として使用できる新しいタイプのセンサーを生み出すことを目指しています。「その場合、リアルタイムデータ分析からロボット、サーバー空間内のエージェントまで、さまざまなシナリオでAIシステムを考慮できます。各シナリオには、処理時間や必要な入力レベルに関する異なる要件があります。」 この分野では、Endgadget が指摘しているように、ソニーはすでに A6600カメラ などの製品で、オートフォーカスを大幅に改善することに貢献しています。ガストロノミーにおけるAIの開発計画について、ソニーは、「クリエイターに近づく」という観点からAIとロボティクスを利用することを目的としています。トップレベルのシェフは、AIと交流することで新しいレシピのインスピレーションを得ることができ、日常生活で食事を準備するすべての人も、創造のプロセスをより楽しむことができるように支援したいと考えています。」


人工知能を進歩させるために、新しい飛躍を成し遂げる必要があります。著者Jun Wuは、Forbesで「人工知能は『学習することを学ぶ』必要があります」と述べています。では、それは何を意味するのでしょうか。Wuは説明しています、「人間は、どのような状況や周囲からでも学習できるという独自の能力を持っています。」人間は学習プロセスを適応させることができます。人工知能も同様の柔軟性を持つためには、Artificial General Intelligenceが必要であり、学習プロセスについて学ぶ必要があります。これは、メタ学習と呼ばれます。人間と人工知能の学習プロセスには、1つの大きな違いがあります。人間の学習能力は限られているのに対し、人工知能は計算能力などの多くのリソースを持っています。人間の脳力には限界があり、学習する時間も限られています。しかし、人工知能は「人間の脳が使用するデータよりも多くのデータから学習しますが、これらの膨大な量のデータを処理するには、膨大な計算能力が必要です。」Wuは説明しています、「人工知能のタスクの複雑さが増えるにつれて、計算能力も指数関数的に増加します。」これは、計算能力のコストが低くても、「指数関数的な増加は、我々が望むシナリオではありません。」これが、現在「人工知能は特定の目的の学習者として設計されている」理由であり、学習プロセスをより効率的にしています。しかし、人工知能がより多くのことを学習し始めると、「学習することを学ぶ」ことから、「データの複雑さが増すにつれて、データから推論する」ことにしました。指数関数的な計算能力の増加を避けるために、より効率的な学習パスを考案する必要があり、人工知能はそのパスを覚える必要がありました。問題は、研究者や技術者が人工知能にマルチタスクの問題を与え始めたときにさらに複雑になりました。そうするには、人工知能は「独立したデータセットを並列に評価する必要があります。また、データのピースを関連付けて、データ間の関連性を推論する必要があります。」1つのタスクを実行する間に、人工知能は他の状況で適用できるように知識を更新する必要があります。「タスクは相互に関連しているため、タスクの評価はネットワーク全体によって行われる必要があります。」Googleは、MultiModelというモデルを開発しました。これは、8つの異なるタスクを同時に実行できる人工知能システムです。MultiModelは「画像内のオブジェクトを検出できます。キャプションを提供できます。音声認識できます。4つの言語ペア間で翻訳できます。文法構成解析を実行できます。Googleの成果は大きな飛躍ですが、人工知能は一般目的の学習者になるためにさらに進歩する必要があります。これを達成するには、メタ推論とメタ学習をさらに発展させる必要があります。Wuは説明しています、「メタ推論は、認知リソースの効率的な使用に焦点を当てています。メタ学習は、人間が独自の能力を持っており、限られた認知リソースと限られたデータを使用して効率的に学習できることを焦点に当てています。」現在、人間の認知と人工知能の学習方法のギャップを調査する研究が行われています。内部状態の認識、記憶の精度、信頼性などです。これはすべて、「人工一般学習者になるには、人間がどう学習するかについての包括的な研究と、人工知能が人間の学習方法を模倣する方法についての研究が必要です。新しい状況に適応する能力、多くのタスクを実行する能力、限られたリソースで戦略的な決定を下す能力など、人工知能研究者が克服しなければならない課題は数多くあります。」


As Endgadget reports, 2人のAI研究者がてんかん患者の新たな希望を創り出すシステムを開発した可能性がある – 「てんかん発作を99.6パーセントの精度で予測できる」システムであり、発作の1時間前に予測することができる。これは最初の新しい進歩ではなく、以前にはオランダのエインドホーフェン工科大学(TU)の研究者が夜間のてんかん発作を予測できるスマートアームバンドを開発していた。しかし、IEEE Spectrumによると、新しいAIシステムの精度と短時間での予測は、世界中の約 5000万人のてんかん患者(世界保健機関のデータに基づく)にとって新たな希望をもたらす。患者の中で70パーセントは、適切な時期に薬を服用することで発作を制御できる。新しいAIシステムは、ルイジアナ大学ラファイエット校のHisham DaoudとMagdy Bayoumiによって開発され、「既存の予測方法から大きな飛躍」と評価されている。システムを開発した2人の研究者のうち1人であるHisham Daoudは、「予測できない発作の時期により、てんかんは患者に強い心理的および社会的影響を与える」と説明している。説明によると、「各人はユニークな脳パターンを示すため、発作を正確に予測することは難しい」。これまでのモデルは「2段階のプロセスで発作を予測しており、まず脳パターンを手動で抽出し、次に分類システムを適用していた」というが、これはDaoudによると、予測に必要な時間を増加させていた。彼らのアプローチは、研究で説明されており、7月24日にIEEE Transactions on Biomedical Circuits and Systemsに掲載された。「特徴抽出と分類プロセスは、1つの自動化システムに統合されており、より早く、より正確な発作予測を可能にしている」。システムの精度をさらに高めるために、DaoudとBayoumiは、「深層学習アルゴリズムを使用して、患者脳の異なる電極位置からの空間時間特徴を抽出および分析する別の分類アプローチを組み込んだ」。「EEG読み取りには複数の「チャネル」の電気活動が含まれる」ため、予測プロセスをさらに高速化するために、2人の研究者は「電気活動の最も適切な予測チャネルを特定するための追加アルゴリズムを適用した」。完成したシステムは、ボストンこども病院の22人の患者でテストされた。 サンプルサイズは小さかったが、システムは非常に正確(99.6パーセント)であり、「1時間あたり0.004の誤報」であった。Daoudによると、次のステップは、アルゴリズムを処理するためのカスタマイズされたコンピュータチップの開発である。「現在、サイズ、消費電力、待機時間などの多くの問題を考慮して、このアルゴリズムを展開する効率的なハードウェア[デバイス]の設計に取り組んでいる。患者にとって快適な方法で実用的に適用できるように」。


Microsoftは、AzureクラウドプラットフォームがAmazonやGoogleと人気で並ぶことを期待しており、Wiredによると、英国系のスタートアップGraphcoreと提携して、新しいコンピュータチップを開発しようとしている。このチップは、新しい人工知能の開発を支えることができる。Wiredによると、ブリストル、英国に拠点を置くGraphcoreは「AI研究者の中で注目を集めており、数百万ドルもの投資を集めている。同社のチップは、AIが動作するために必要な計算を加速することを約束している。」2016年の設立以来、同社は初めてチップとテスト結果を公開した。Microsoftは2018年12月にGraphcoreに投資し、「2億ドルの資金調達の一環」となった。同社は、AIアプリケーションを使用する顧客の増加により、クラウドサービスを活用することを促進したいと考えている。Graphcore自身がチップを一から設計し、「機械が顔を認識したり、音声を理解したり、言語を解析したり、車を運転したり、ロボットを訓練したりする」計算をサポートするようにした。同社は、自社のチップが「AIを使用したビジネスクリティカルな操作を実行する企業、例えば自動運転車のスタートアップ、取引会社、大量のビデオやオーディオを処理する企業、次世代のAIアルゴリズムを開発する企業など」で使用されることを期待している。2019年11月13日にMicrosoftとGraphcoreが発表したベンチマークによると、「チップは、NvidiaやGoogleのトップAIチップと同等かそれ以上の性能を発揮している。Graphcoreのハードウェア専用に書かれたコードは、さらに効率的になる可能性がある。」両社は、「特定の画像処理タスクは、Graphcoreのチップ上で何倍も高速に動作する」と述べている。また、「BERTと呼ばれる人気のあるAIモデルを、他のハードウェアと同等の速度で言語処理に訓練することができた」としている。Moor InsightsのAIチップスペシャリスト、Karl Freundは、新しいチップの結果が「最先端だがまだ柔軟性がある」との見方を示し、「プログラム可能にするという非常に難しいことをやってのけた」と評価している。Wiredによると、Graphcoreの共同創設者兼CEOであるNigel Toonは、両社は同社の設立から1年後にMicrosoft Research Cambridgeを通じて共同作業を開始した。同社のチップは、特に大規模なAIモデルや時系列データを扱うタスクに適している。また、金融の顧客は、Graphcoreのハードウェアを使用することで、市場データを分析するアルゴリズムの性能が26倍向上したという。他のいくつかの小規模な企業も、この機会に「Azureを通じてGraphcoreのチップを使用している」と発表した。これには、Citadelが金融データを分析するためにチップを使用することや、Qwantが画像認識アルゴリズムのResNextを実行するためにハードウェアを使用することなどが含まれる。


専門的な出版物 KDNuggets は、AIについての10冊の無料オンライン書籍のリストを発表しました。これは、同出版物がまとめた4番目のリストであり、以前のリストである 2017、 2018、および 2019 も利用可能です。ここでは、現在のリストにある5つのタイトルについて簡単に説明します。これらは、AIについてのより一般的な要素と知識を表しています。DeepLearning by Ian Goodfellow, Yoshua Bengio, and Aaron Courville (2016年11月、800ページ)。タイトルが示すように、この本はディープラーニングに焦点を当てており、「ディープラーニングのマスターに取り組んでいるすべての人のために、モンテカルロ法、再帰的および再帰的なネットワーク、オートエンコーダー、ディープジェネレーティブモデルに関する包括的な数学的および概念的なカバーを提供するはずです。」人工知能の探求:アイデアと実績の歴史 by Nils J. Nilsson (2009年10月、707ページ)。もしかしたら、この本は「科学者、哲学者、作家の想像力を長年にわたって捉えてきた分野の決定的な歴史であり、現在までの実績を表しています。」この本は、18世紀(およびそれ以前)の先駆者の初期の夢から、今日のAIエンジニアのより成功した仕事まで、AIの歴史を辿っています。「本の多くの図とAIプログラムのわかりやすい説明により、これらのAIシステムのしくみを理解することができます。」ニューラルネットワークの簡潔な紹介 by David Kriesel、原稿(2007年、244ページ)著者自身によって自費出版されたこの本は、「AIの研究と調査に不可欠な基礎知識となる包括的なリソースを提供しています。」KDNuggetsによると、「ニューラルネットワークは、データ処理のためのバイオインスパイアされたメカニズムであり、コンピューターが技術的に生物学的な脳と同様の方法で学習できるようにします。これらのアプローチは、アルゴリズムに十分な問題インスタンスの解決策を教えることで、一般化することもできます。」倫理的な人工知能 by Bill...


人工知能への投資額は毎年指数関数的に増加している。市場調査会社のMarkets and Marketsによると、現在の推定では、AI市場は2025年までに191億ドルに達するという。2018年の投資額は215億ドルであった。この現象に注目して、イギリスの専門誌TechWorldは、世界のテクノロジー大手12社が人工知能の開発にどのように投資しているかを調査した。ここでは、その分野の現在のトップ6社を紹介する。Nvidia – 世界最大のチップメーカーの1つは、同時にAI技術への最も真剣な投資家の1つでもある。なぜなら、チップは技術を推進するための重要な要素だからである。注目すべきは、「AIは従来のアルゴリズムよりも多くの計算能力を必要とするため、新しいチップ設計への大量投資は業界の必須条件である」ということである。現在のところ、Nvidiaは、自動車産業、ロボティクス、建設業、ヘルスケア業界におけるAIの使用に投資を集中している。NvidiaのNuanceとの提携は、ディープラーニングチップとプラットフォームを使用して医療画像にAIを導入する。 「AIを搭載した画像サービスにより、医療専門家は新しいツールを使用してX線とその他の画像を分析できる。」Intel – 他们最近在14家的AIプラットフォームを開発しているスタートアップに1.17億ドルを投資した。2016年、Intelはまた、NervanaとMovidiusを買収し、2019年にNervana Neural Network Processor(NNP)を立ち上げた。これは、特に「AIモデルからのトレーニングと推論を加速する」ために設計されたプロセッサである。ブログ投稿で、IntelのAI製品グループのVPおよびGMは次のように述べた。「AIが支配する世界では、特定のユースケース(例:エッジでの推論処理)や顧客のニーズに最も効果的にブレークスルーをもたらすプロセッサを組み合わせたハードウェアソリューションに適応する必要がある。」GoogleのCEOであるSundar Pichaiは、2016年に「AIが支配する世界では、特定のユースケース(例:エッジでの推論処理)や顧客のニーズに最も効果的にブレークスルーをもたらすプロセッサを組み合わせたハードウェアソリューションに適応する必要がある」と述べた。 DeepMind、Googleが2014年に4億ドルで買収したAIスタートアップは、地下鉄駅間の最短ルートの検索、ボードゲーム「Go」のチャンピオンプレイヤーの破壊、NHSとの一連の物議を醸す契約によるヘルスケアの改善など、さまざまな用途に使用されている。同時に、AIはGoogleの製品の多く、例えばGoogle MailやGoogle Assistantにも重要な役割を果たしている。AmazonのAIの使用は、オンラインのレコメンデーションエンジンから倉庫でのロボットの使用まで広範囲にわたる。消費者向けAIの最も発展した使用例はAlexa「Amazonの知的ボイスアシスタントで、ニューラルネットワークを使用して自然言語処理を実行し、人間の声に応じた適切な応答を返す。」である。「Amazonはまた、Lexを使用して会話型インターフェースを構築し、Pollyを使用してテキストを音声に変換し、Rekognitionを使用して画像分析をアプリケーションに追加し、Comprehendを使用してテキスト内の洞察と関係を発見し、SageMakerを使用して機械学習モデルを大規模に構築、トレーニング、デプロイできるようにAWSに機械学習を導入した。」MicrosoftのAIへの大量投資は、同社がWindows、Office、Azureビジネスユニットを包含する人工知能および研究グループを立ち上げたことでさらに進展した。 また、2016年にMicrosoftは、Microsoft Venturesを立ち上げた。これは、特にAIスタートアップに焦点を当てたファンドである。以来、同社のAI投資は不断に増加し、2018年だけでも5社のAIテクノロジー企業を買収した。 この年、同社は、サンフランシスコを拠点とするOpenAIに10億ドルを投資し、Microsoft AzureでAIスーパーコンピューティングテクノロジーを開発するための2年間のパートナーシップを発表した。Appleは、AI技術に関して競合他社に追いつこうとしているように見える。同社は最近、Googleの検索および人工知能のチーフであるJohn Giannandreaを、マシンラーニングおよびAI戦略を担当するために雇用した。同社はまた、Emotient、顧客の反応を検出できる顔認識テクノロジーを生み出す、Vocal IQ、ボイスインターフェースのプラットフォームを提供する、Silk Labs、消費者向けデバイスに適合するAIソフトウェアを作成するなどの、より広範なAIスタートアップに投資を開始した。Appleはまた、学術論文を発表し、ユーザーデータの保護と透明性の提供におけるAIの使用に焦点を当てている。リストの残りはこちらで利用できます。


ビジネス志向の出版物 Fast Company は、オンラインの性行為広告を分析して人身売買を暴くために設計された最近のAI開発について報告しています。カーラ・スミス、デリバーファンドのシニア・ターゲット・アナリスト(DeliverFund)は、米国の性行為人身売買運営を捜査するために法執行機関と協力する、元CIA、NSA、特殊部隊、法執行機関の将校で構成されるグループであり、出版物に彼女と彼女の研究仲間が分析した広告の例を提供しました。その広告では、「モリー」はアトランタの「新しいバニー」で、男性に性行為、支配、ストリップショーを売ることを「愛している」ということです。スミスと彼女の同僚は、その分析で、モリーがこれらの行為を強制的に行っていることを示唆する手がかりを見つけました。「たとえば、彼女は、ベッドに曲がった姿勢で、カメラに向かってお尻を向けた状態で描かれています。スミスは、他の例を挙げています。たとえば、「あざや歯形は、被害者のために他に特徴的な兆候です。女性を人身売買犯の所有物としてブランド化するタトゥーもそうです。王冠は人気のあるイメージです。ピンパは自分たちを「王」と呼ぶことが多いからです。お金を振り回す写真も、ピンのショーマンシップの特徴です。」最近まで、スミスのような研究者は、これらのマーカーを手動で見つける必要がありました。約1年前、デリバーファンド、彼女の研究グループは、コンピュータービジョン・スタートアップであるXIXから、AIを使用してこのプロセスを自動化するためのオファーを受け取りました。説明によると、「同社のソフトウェアは、性行為人身売買犯が使用するサイトから画像をスクラップし、画像内のオブジェクトにラベルを付けるため、スミスのような専門家が疑わしい広告を迅速に検索して確認できます。各性行為広告には平均3枚の写真があり、XIXは約1分あたり4,000件の広告をスクラップして分析できます。これは、オンラインに新しい広告が投稿される速度です。」運営開始から3年間で、デリバーファンドはあまりにも遅いスタートを切り、わずか3人の作戦要員しかいなかったため、人身売買犯は4人だけだったに過ぎませんでした。しかし、人員を増員し、XIXと協力し始めた2019年の最初の9ヶ月間で、「デリバーファンドは、25人の人身売買犯と64人の未成年者性行為購入者の逮捕に貢献しました。この過程で、50人以上の被害者が救出されました。」彼らの功績の中には、Backstage.comの摘発にも協力しました。ここは「性行為を提供する広告のトップスポットとなり、自発的な性行為労働者と被害者を人身売買するピンパによって広告されていました。」また、「XIXのツールは、デリバーファンドが人身売買の被害者だけでなく、人身売買犯を特定するのにも役立ちます。オンライン広告には、ピンパ自身の個人情報が頻繁に表示されます。」レポートによると、「XIXのコンピュータービジョンは、デリバーファンドが虐待事件を調査し、所謂「インテリジェンス・レポート」を作成するために使用するデジタル・ワークフローにおける重要なツールです。」これらのレポートに基づいて、デリバーファンドは米国全土の63の異なる機関にインテリジェンスを提供していますが、モンタナ、ニューメキシコ、テキサスの司法長官事務所とも関係があります。組織はまた、「法執行官に対して、虐待事件を認識して調査する方法とデジタル・ツールの使用方法についての無料トレーニングを提供しています。参加機関は、デリバーファンド・システムであるPATH(Platform for the Analysis and Targeting of Human Traffickers)を使用して、事件を独自に調査し、他の機関と共同で作業できます。」人身売買研究所の情報によると、Human Trafficking Institute、世界中の人身売買被害者の約半分が未成年者であり、スミスは「性行為人身売買被害者の圧倒的多数は米国市民である」と述べています。」


TheNextWeb(TNW)によると、TheNextWeb(TNW)によると、OpenAI、数多くの人工知能プロジェクトの背後にある非営利組織は、GPT-2というテキスト・ジェネレーターに対する計画された段階的なリリースの最終モデルを公開した。このテキスト・ジェネレーターは、相当な議論を引き起こした。2019年2月にリリースが発表された。OpenAIの研究論文「Language Models are Unsupervised Multitask Learners」によると、「GPT-2は、機械学習を使用して、限られた入力に基づいて新しいテキストを生成する。」これは、ユーザーが任意のテーマについて1、2つの文を入力すると、AIジェネレーターは元の入力に関連するテキストを生成することを意味する。実質的に、TNWによると、ほとんどの「テキスト・ジェネレーター」とは異なり、事前に書かれた文字列を出力しない。GPT-2は、以前存在しなかったテキストを作成する。カーネギー・メロン大学図書館のプログラム・ディレクターであるScott B. Weingartは、ツイートで具体的な例を示している: What is a Panther but a young lion? An entire corridor filled entirely with people screaming。 How’s this...


言語と書き言葉の専門家であるReuven Koretは、オンライン出版物のreadwriteで、翻訳における人工知能の影響と使用状況について詳細に説明している。Koretは、翻訳プロセスのすべての側面で、AIに基づくマシン翻訳ツールの使用が広く行われていることを指摘している。これは、Google, Microsoft, Facebook, Amazonなどの独自のML翻訳ツールに限定されていない。詳細なプロフェッショナルツールを提供する会社として、SDLがある。しかし、多くのプロの翻訳者やエージェンシー、たとえば、William Mamane, Head of Digital Marketing at Tomedes、プロの言語サービスエージェンシーは、翻訳におけるAIの使用について懐疑的である。ただし、懐疑的な人々も、Mamaneのように、マシン翻訳が重大な進歩を遂げており、そして「翻訳サービス値链の中には、AIとマシン翻訳のための場所がある」と指摘している。マシン翻訳の課題を説明するために、Koretは、「基本的なレベルでは、MTはアルゴリズムを使用して、1つの言語の単語を別の言語の単語に置き換える。ただし、それだけでは翻訳に成功することはできない。両方の言語の全文の理解が必要である。MTを、ソース言語を解読し、ターゲット言語でその意味を記録するということとして理解することができる。」この課題を解決するのは非常に複雑なプロセスであり、現在、最も発展したプロセスは、「統計を使用して、与えられたフレーズの最良の翻訳を選択する」または「構造化されたルールを使用して、最も可能性の高い意味を選択する」である。これらのアプローチでは、まだ編集者や校正者の関与が必要であるが、「その監視、編集、または監査役割は、翻訳よりも要求が少なく、時間がかからない。」これらの方法は、Google TranslateなどのほとんどのWeb翻訳アプリに基づいている。注目すべきは、Googleは、1日あたり100万冊の本分の翻訳を処理している。現在、しかし、翻訳プロセスでAIを使用するためのさらに大きな進歩が、ニューラルマシン翻訳(NMT)の使用によって達成されている。深層学習を使用して翻訳することで、「個々の単語だけでなく、全文を考慮する」ことができる。同時に、NMTでは、「統計的手法に必要なメモリの小さな部分」が必要であることを意味し、同時に高速に動作する。NMTの使用は、2014年に初めて研究されたが、過去5年間の急速な進歩により、双方向の(RNN)の開発が可能になった。「これらのネットワークは、2番目のRNNであるデコーダーにソース文を形式化するエンコーダーを組み合わせる。デコーダーは、ターゲット言語で出現するべき単語を予測する。」Googleは、NMTを使用してGoogle Translateを駆動させている。Microsoftも、Microsoft TranslatorとSkype TranslatorでRNNを使用している。Koretは、NMTは、熟練した言語学者が翻訳出力を完成させ、磨き上げるのを支援できる。将来的に、翻訳者は、人工知能と対立するのではなく、人工知能と協力して働くことが多くなりそうである。


Amanda Loudinは、OneZeroに、現在のウィンブルドン選手権優勝者ノバク・ジョコビッチが、ロジャー・フェデラーとの5時間にわたる激戦のチャンピオンシップ・マッチで優勝するためにAIの力を借りた方法について書いた。エドとアンドリュー・フラゼールは、RightChainのオーナーである父子チームで、アトランタを拠点とする高度なサプライ・チェーン最適化、計画、分析ソフトウェア会社である。同時に、フラゼールはテニス愛好家であり、彼らの計画概念がスポーツに適用できるかどうかを見てみることに興味を持った。エド・フラゼールは、2017年からジョコビッチを含むプロと協力しているBrain Game Tennisの運営者であるクレイグ・オシャネシーに連絡した。ラウディンは、「彼は彼らのプレイのパターンを分析し、自分自身のパフォーマンスを向上させる方法と、特定の対戦相手に対してどのような戦略を採用するべきかを理解するのに役立つ」と指摘している。オシャネシーの仕事のパートナーは、Tennis AnalyticsのCEOであるウォーレン・プレトリアスで、「2013年に彼が開拓したマニュアル・タギングを利用したビデオ分析のモデルを開発した」。彼の方法は、25の重要な指標に基づいて試合を分析し、「データ分析と視覚化を組み合わせて、マッチ情報を抽出してインデックス化されたビデオにキーワードを生成する」ものである。フラゼールは、ウィンブルドンでオシャネシーとプレトリアスに会ったと述べており、「私たちはその夜にデータを実行し始めた」と語っている。結果として、RightChainのAIアプリケーションは、コルゲート、キャタピラー、フォード、バクスター、コカ・コーラなどの企業がサプライ・チェーンを簡素化するのを支援する。ラウディンは、予測に「AIベースのアルゴリズムを使用して、各製品に固有のモデルを作成して継続的に更新する」という例を示している。また、「ネットワーク最適化では、多数のユーザー定義された基準に基づいて、配送センターを配置するためのアルゴリズムを使用する」と述べている。テニスに彼の方法論を適用するために、フラゼールはテニス・ボールの旅程を終点から始点まで同様の方法で分解することに決めた。彼は説明するように、「テニスでは、ボールの目的地と起点に焦点を当てるためにフィールドを変更した。これは、以前には利用できなかったレベルの詳細さでテニス・コートをマッピングする非常に正式な座標系である」(この場合、各サービス・エリアは12のサブ・ゾーンに分割され、バック・コートは8つのゾーンに分割される)。テニス・プレイだけの分析はかなり一次元的であり、オシャネシーは、AIは繰り返しパターンを見つけることができ、ラリーの長さを測定し、プレーヤーがボールを打った場所を正確に決定できる」と説明している。「このテクノロジーは、より詳細な分析のための追加の層とパターンを提供する。プレーヤーに何が起こっているかを伝えるのは一つのことだが、表とグラフで示すのは別のことである。エドが提供するグラフは、データをさまざまな方法でカットし、勝利の重要なポイントがどこにあるかを簡単に見つけることができる」。オシャネシーはまた、プレーヤーに「練習で発生する長いラリーの連続性 — これはビデオ分析では証明できないが、AIでは証明できる」ということを納得させるのが、彼の最も難しい売り込みのひとつだったと語っている。プレトリアスは、「代わりに、データを孤立して見るのではなく、AIでは彼らは今やプレイの進化の物語を得ることができる」と付け加えた。結局、ノバク・ジョコビッチは2019年のウィンブルドン・トーナメントで優勝し、オシャネシーは「AIの使用は、テクノロジーがスポーツにたらすことができる場所のただ始まりに過ぎない」と述べた。