Connect with us

ソートリーダー

API爆発は現実 – Vibe Codingが導火線を点火している

mm
AIブームは私たちに多くのものをもたらしてきました: 生産性の向上、新しいクリエイティブなワークフロー、そして最近では、APIの雪崩。社内の内部および外部APIの数が一夜で二倍になったように感じるのなら、あなたは気のせいではありません。私たちはAPI爆発の真っ只中を生きており、生成的なAIは主な加速剤となっています。

数年前、成熟したコードベースで新しいAPIエンドポイントをスピンアップすることは、高い摩擦のある取り組みでした。複数のコードドメインの所有権をナビゲートし、機嫌の悪いアーキテクトからの承認を得て、時には数週間または数ヶ月にわたるレビューを実施する必要がありました。摩擦は痛みを伴うものでしたが、毎回の新しいAPIに一定のスクラチニーや機関の記憶を伴うことを保証しました。

今?AIを搭載した開発ツールがそのボトルネックを消滅させました。

GenAIエージェントは大量のコンテキストデータを消費し、数秒で数百のファイルにわたるコード変更を生成できます。これにより、APIを作成する能力が民主化されました。エンジニアだけではなく、製品マネージャーやサポートチームなどの非技術的な役割(ショックホラー)でも、実験を直接プロダクションに配信することができます。

これは、ソフトウェア開発プロセスにおける権力構造の重大な変化です。而且、必ずしも悪いことではありません。特に、ビジネス環境がスピードとイテレーションを優先する場合です。しかし、結果として、急速に展開されたAPIの野火が生じています。多くのAPIは「実験的」または機能フラグの後ろに隠されていると同時に、ビジネスニーズの進化に伴って急速に不可欠なインフラストラクチャとなります。クイックプロトタイプから始まるものが重要な統合となり、今では解消するのが遅すぎます。

「Vibe Coding」の台頭

この新しいタイプのAI生成APIは、通常、アーキテクチャ、ドキュメント、テストのいずれにもほとんど伴われません。これを「Vibe Coding」と呼びます。つまり、システムやデザインパターンの深い理解ではなく、粗い直感、緩いプロンプト、そして何が「機能するはず」であるという一般的な感覚に基づいてソフトウェアを書くことです。

残念ながら、この方法で作成されたAPIは、不一致な規約に従い、堅牢な検証が不足し、既存の内部基準を無視することがよくあります。さらに、機密データや外部向けエンドポイントに接続された場合、深刻なセキュリティまたは規制リスクを引き起こす可能性があります。AIはあなたの会社のガバナンスモデル – またはコンプライアンス要件を知りません。明示的に教えられなければ、それらを念頭に置いて書きません。

そして問題は急速に悪化します。AIはテストも生成するために使用されることが増えています。しかし、壊れたコードをAI生成の検証でテストすると、テストはただ不完全な動作を確認するだけです。開発者は自分で書かなかったコード、特に機械によって生成されたコードのテストを書くことを躊躇します。そこでAIが穴を埋めます。結果として、低品質のコードが等しく不安定なスケルトンによってテストされ、「検証」されるという、自己反復的なフィードバックループが生じます。

パッチワークAPIと所有権の危機

これらすべてが、ほとんどの組織内に広がり、断片化されたAPIレイヤーにつながります。APIは重複するドメインにわたって広がり、わずかに異なる方法で類似の機能を実行し、明確な所有権が欠けていることがよくあります。多くのAPIは、根本的なデータモデル、サービス境界、またはチームのチャーターに対する深い理解なしに書かれました。当然、メンテナンスは悪夢となります。このエンドポイントの所有権は誰にあるのか?誰が変更することができるのか?誰がその存在を知っているのか?

AIツールはユーティリティとスピードを優先します。チェックされなければ、配信への最短経路を生成します。どれほどアーキテクチャのビジョンに合致するかは関係ありません。時間の経過とともに、この技術負債の重さは進歩を停滞させます。

実用的ステップ

1. 可視性

答えはすべてを遅くすること、またはAIを禁止することではありません。那は現実的ではなく、そしてそれは巨大な価値をテーブルから除去することになります。代わりに、私たちは生成的な開発の時代にソフトウェアを管理する方法を進化させる必要があります。

基礎となる最初のステップは可視性です。あなたが見ることができないものを管理することはできません。組織は静的なドキュメントではなく、継続的なAPIの発見を必要とします。公開された瞬間に古くなってしまう静的なドキュメントではありません。

実行時およびコード内のAPIを監視するツールは不可欠になりつつあります。実際のAPIの地図をマッピングすることができると、リスクを評価し、重複を特定し、信頼できるガバナンスを構築し始めることができます。

皮肉なことに、AI自身がこのプロセスを支援できます。プロンプトされたAIモデルを使用してAPIマップを分析および監査することで、異常、リスクのある公開、統合の機会を明らかにすることができます。これは、さらに多くのものを構築するのではなく、すでにあるものをクリーンアップするのを支援するAIです。

2. プロンプトエンジニアリングとツールの組織全体の標準化の設定

AIツールの出力と入力の両方に対するより良い制御は、生成されるコードに対する一定のレベルの制御を維持するのに長い道のりになります。組織内で使用するために承認されたAI駆動のIDEとモデルを簡単に整列することで、バリエーションを制御することができます。これにより、新しいモデルをロールアウトすることも容易になり、エンジニアのワークステーション全体でプロンプトが再現される可能性も高まります。

さらに強力なのは、AIコーダーがエージェントにコンテキストとして提供する必要がある、rules.mdタイプのファイルを整列することです。コードベースが複雑になるほど、すべてのエンジニアが同じセットのルールで作業することが役立つでしょう。AIエージェントに、既存の構造と最も適切に機能するようにコードを生成する方法についてのコンテキストを提供します。

私たちは生成的なジニーの瓶を再び塞ぐことはできません。しかし、それを誘導し、爆発の範囲を封じ、責任あるイノベーションを推進するためにそれを利用することができます。その作業は、コードではなく、明確さから始まります。

バイオ:Benji Kalman、VP of EngineeringおよびRootの共同創設者は、サイバーセキュリティとDevToolsの研究および構築に10年以上の経験を持っています。8200 Alumniでサイバー作戦を専門としたBenjiは、Snykの初期メンバーであり、5年以上にわたり、会社のセキュリティ知識ベースのキュレーションと作成を担当するSnykのセキュリティRnDグループのディレクターとして働きました。