Andersons Blickwinkel
Wird die KI letztendlich auch außerhalb des Burggrabens gedeihen?

Die Kosten und Einschränkungen der großen KI-Unternehmen sowie deren Einfluss auf die Hardwarekosten zwingen die Nutzer dazu, ihre eigenen Systeme zu entwickeln – gerade jetzt, wo zunehmende Regulierungen drohen, diese „Schatten-KI-Wirtschaft“ zum Erliegen zu bringen.
Meinung Zu den vielen Fallstricken, die in wissenschaftlichen Forschungsarbeiten auftauchen, gehört einer der häufigsten, dass das Problem, mit dem sich die Arbeit befasst, bereits an anderer Stelle gelöstund dass der Beitrag der neuen Forschung lediglich nebensächlich oder inkrementell ist.
Dies kann aus verschiedenen Gründen geschehen: Die Forscher hatten auf einen Quantensprung gehofft, erzielten aber stattdessen nur einen kleinen Fortschritt; frühere Lösungsansätze waren ressourcenintensiver als der neue; oder das Projekt scheiterte schlichtweg an seinen Zielen, doch der Publikationsdruck in der akademischen Forschung zwang das Team, die Ergebnisse trotzdem zu veröffentlichen (oftmals unter Verschluss). unter der Lawine (am geschäftigsten Veröffentlichungstag eines Portals).
In der Literatur zum maschinellen Lernen gewinnt jedoch ein relativ neuer und unumwundener Grund zunehmend an Bedeutung: die angebotene Funktion oder Funktionalität ist Derzeit nur über proprietäre, API-gebundene Portale verfügbar..
Ich habe heute Morgen eine solche Arbeit betrachtet – eine Zusammenarbeit zwischen chinesischen Universitäten und Amazon, wobei das wiederkehrende Problem von Fehler beim Entfernen des Objekts in diffusionsbasierten Bildbearbeitungssystemen, die den Zielbereich häufig einfach mit einem ähnlichen Objekt „auffüllen“:

Ganz links ist das Originalbild zu sehen; rechts daneben die rote Segmentierungsmaske, die der KI signalisiert, welcher Bildteil entfernt werden soll; daneben zeigt „Unser Beispiel“ einen erfolgreichen Ansatz zur Objektentfernung – und die beiden verbleibenden Bilder zeigen ähnliche Systeme, die anstelle des Busses einfach einen anderen einfügen.. Quelle
Im obigen Beispiel zeigt das mittlere Bild, wie der neue Ansatz den Bus erfolgreich entfernt und einen plausiblen Hintergrund einfügt, im Gegensatz zu den beiden vorherigen Methoden (den beiden Bildern ganz links), die zwar jeweils den Bus entfernen, aber dann einen anderen Hintergrund einfügen. anders Der Bus ist wieder im Bild!
Erwischt!
Die Gründe und Hintergründe dieser Herausforderung lassen wir für ein anderes Mal beiseite (und es ist ein interessant Fach Dann stieß ich beim Lesen des neuen Artikels auf einen klassischen Haken: die Autoren räumen ein, dass teure, proprietäre Systeme diese Aufgabe bereits recht zuverlässig erledigen können – etwas, das ich aus meiner mehrjährigen Nutzung von Adobe-Produkten weiß. Firefly in Photoshop, neben anderen proprietären Systemen:
'[Diffusionsbasierte] Methoden halluzinieren oft, indem sie nach dem Entfernen der Zielobjekte unbeabsichtigte Objekte einfügen, was zu kontextuell inkonsistenten [Ergebnissen] führt.
„Andererseits sind neuere proprietäre multimodale Modelle wie ChatGPT und Nano Banana zwar leistungsfähiger bei der Objektlöschung, weisen aber eine große Anzahl von Parametern und einen hohen Rechenaufwand auf, was ihren praktischen Einsatz auf Edge-Geräten behindert.“
„Daher ist es unbedingt erforderlich, ein spezielles Objektlöschmodell zu entwickeln, das nicht nur eine überlegene Löschleistung ermöglicht, sondern auch eine geringe Inferenzlatenz und deutlich weniger Parameter aufweist.“
Diese Erklärung, die sich auf die technischen Hindernisse konzentriert, verschweigt die offensichtliche Tatsache, dass proprietäre Architekturen wie ChatGPT und Nano Banana nicht verfügbar sind. für die lokale Installation. Obwohl solche Systeme Fähigkeit zur Produktion strittiger Inhalte Da Portale dieser Art im letzten Jahr durch die Öffentlichkeit zusätzliche Rechtfertigung erhalten haben, sind sie hauptsächlich aufgrund kommerzieller Erfordernisse proprietär.
Im Wesentlichen impliziert die neue Studie, dass das Zielproblem zwar in kommerziellen Systemen gelöst ist, Dies mag für den Rest von uns irrelevant sein., die lernen müssen, wie man das Problem in der „realen Welt“ löst – also in Open-Source-Systemen, unabhängig davon, ob diese realistischerweise lokal installiert werden können oder nicht.
Parallele Entwicklung
Warum sollte man jedoch ein Problem lösen, das weiterhin von einem kostenpflichtigen System abhängt, nicht etwa aufgrund proprietärer Beschränkungen, sondern weil die benötigte GPU-Rechenleistung die Möglichkeiten lokaler Systeme übersteigt? Die meisten dieser neuen Open-Source-Veröffentlichungen und Code-Repositories verwenden Trainings-/Inferenz-Setups mit extrem hohem Ressourcenbedarf, wie beispielsweise Cluster von A100-Grafikkarten.
Nun, das hängt davon ab, welchem Zweck Sie all diese Dinge unterstellen. bevorstehende, die Wirtschaft zerstörende KI-Rechenzentren werden sich erfüllen, sobald sie online gehen. Sowohl die Befürchtungen der einfachen Bevölkerung als auch die Hoffnungen der Eliten lassen befürchten, dass abgeschottete, proprietäre Systeme auf ChatGPT-Niveau Arbeitsplätze vernichten und gleichzeitig die Abonnementkosten stetig erhöhen und den Service verbessern werden, um das frühe Risikokapital zu befriedigen, das 3-5 Jahre auf die Inbetriebnahme warten musste.
Doch ein wachsender Trend in der Literatur scheint eine alternative Zukunft zu unterstützen, und zwar den „Allein-machen“- und Randgeist vieler Online-Communities wie dem Subreddit r/stablediffusion, der derzeit 920,000 Nutzer zählt und in dem Beiträge über proprietäre Bild-/Videogenerierungssysteme schon lange verboten sind.
In dieser alternativen Zukunft wird das neue globale Angebot an KI-Rechenzentren die reine Rechenleistung für benutzerkonfigurierte, benutzerdefinierte Systeme bereitstellen, anstatt die Anforderungen monumentaler „Black-Box“-Frameworks wie ChatGPT und Adobe Firefly zu erfüllen.
Oberflächenreibung
Beim Durchsehen der komplexen, durch Patreon-Spenden finanzierten Remote-GPU-Walkthroughs auf r/stablediffusion scheint im Moment alles unmöglich: die Modelle sind ständig die Spielregeln ändern Mit jedem Update steigt der Aufwand; die lokale Bereitstellung gestaltet sich schwierig, selbst in den einfachsten und benutzerfreundlichsten Frameworks; und im Allgemeinen deutet der damit verbundene Aufwand darauf hin, dass sich das Ganze eher an Hobbyisten mit technischem Know-how richtet und an jene abenteuerlustigeren Unternehmen, die nicht direkt im Bereich KI tätig sind, sondern ihre eigenen lokalen Systeme entwickeln und warten möchten, anstatt solche Kapazitäten zu mieten.
In den letzten dreißig Jahren wurde jedoch jede Technologie, bei der eine große Nachfrage nach offener und demokratischer Vereinfachung und Kommerzialisierung bestand, entsprechend angepasst. hat es tendenziell bekommenDie am weitesten verbreiteten Lösungen entstehen in der Regel aus den Spannungen zwischen kommerziellen Systemen und Open-Source-Alternativen und -Initiativen.
Bereiche, die einst spezialisierte Nischen für „Nerds“ waren, wie Internetverbindungen, Content-Management-Systeme und Blogging-Systeme sowie Internetsicherheit, Fotografie und Medienmanagement, haben sich allesamt von verwirrender Komplexität hin zu Einfachheit und Nützlichkeit entwickelt.
Daher könnte die zukünftige KI-Landschaft vielfältiger sein und mehr kleinere und wirklich konkurrierende Akteure aufweisen, als es den derzeitigen Marktführern im Bereich der KI lieb sein dürfte.
Selbstverwirklichung, aus Notwendigkeit
Ironischerweise trägt die „Big AI“ maßgeblich zu einem aufkommenden Unabhängigkeitsgefühl unter den Endnutzern bei, indem sie für ihre Rechenzentren alle Computerkomponenten aufkauft – insbesondere DRAM – die sonst an „normale“ Verbraucher gegangen wären.
Folglich stellen sich viele eine Zukunft vor, in der proprietäre „globale KI“-Ressourcen über leistungsschwache Thin Clients genutzt werden und ein wachsendes Interesse bei der Instandhaltung ihrer bestehenden Ausrüstung.
Der Angriff der KI auf die Lieferketten der Technologiebranche hat auch dazu geführt, dass Technologie-Dienstleister ihre Preise erhöhen in den letzten 3-6 Monaten, entweder weil kleinere Unternehmen tatsächlich unter dem Hardwaremangel leiden oder einfach nur weil KI.
Dies hat zu einem geführt wachsendes Interesse an Selbsthosting und On-Premise – einschließlich selbstgehostete maschinelle Lernnetzwerke.
Ich bin in letzter Zeit selbst davon betroffen gewesen und speichere meine Fotos und Videos sowie meine Datensicherungen lokal im LAN. Für die Fotos und Videos nutze ich den kostenlosen Open-Source-Medienserver Immich, der es mir ermöglicht, den Preiserhöhungen zu entgehen. andere besorgniserregende Angelegenheiten) von iCloud und anderen Cloud-Speicheranbietern:

Die kostenlose Immich-Plattform ermöglicht es Ihnen, Ihre Mediendateien auf Ihren Geräten zu speichern und auf Ihre eigenen Kanäle zu beschränken. In diesem Fall nutze ich Immich zusätzlich in einem Docker-Container, um meine NVIDIA 3090 GPU über das LAN, auf dem die Fotos und Videos gespeichert sind, bereitzustellen. So kann die leistungsstärkere GPU rechenintensive Bild- und Videoverarbeitungsprozesse mit KI-Unterstützung bewältigen.
Wenn meine eigenen Erfahrungen ein repräsentativer Indikator sind, Vibe-Codierung – derzeit verflucht in vielen ehemals „reinen“ Online-Communities – wird diese Welle der Unabhängigkeit befeuert (auch wenn es könnte bedrohen (die Open-Source-Repositories, auf die es sich stützt).
Netzwerktechnik war zum Beispiel schon immer meine Schwäche im Bereich Computertechnik, daher war die Unterstützung durch KI für mich unerlässlich, um einen sicheren VPS zum Laufen zu bringen, der eine Reihe neuer selbstgehosteter Dienste unterstützen kann.
Auf diese Weise stärkt „Big AI“ möglicherweise „Small AI“; daher können wir den aktuellen Aufstieg von hyperskalierbaren, hochbewerteten KI-Unternehmen vielleicht als notwendigen, aber nur vorübergehenden Zustand betrachten, bevor eine demokratischere und nutzerorientiertere KI-Gesellschaft entsteht, die wettbewerbsorientierte, profitorientierte Konzerne wie ausgebrannte Trägerraketen abwirft – ähnlich wie die Dotcom-Blase im Jahr 2000. zurückgelassene ausnutzbare Infrastruktur was die Entwicklung des Internets noch lange nach dem Zusammenbruch der Unternehmen, die dafür bezahlt haben, grundlegend beschleunigen würde.
Das Zeitalter der Compliance
Nun, das wird sich diesmal wohl nicht wiederholen.
Selbst wenn wir Diese geneigt, eine Art von ehemaliger Burggraben Randgruppen, Regulierung von KI, kombiniert mit der aktueller globaler Trend zur AltersverifizierungEs erscheint wahrscheinlich, dass diese Entwicklungswege vorhergesehen und blockiert werden.
Der Anker zur Verhinderung einer „Schattenökonomie der KI“ ist die Regulierung. Bereits jetzt gibt es zentrale Datenbanken wie beispielsweise GitHub und Gesicht umarmen Je nach den Einstellungen des Repositories ist oft eine Online-Anmeldung erforderlich, bevor Benutzern das lokale Klonen von Repositories gestattet wird.
Daher existieren bereits Mechanismen, um die Überwachung von KI-Frameworks umfassender als bisher üblich durchzusetzen; und die werden wir Die verstärkte Aufsicht erfolgt nun durch die Zusammenführung verschiedener Regierungsinitiativen. zu einem globalen Impuls.
Wenn also Marktkräfte und der Einfallsreichtum der FOSS-Bewegung die Reibungsverluste bei der alltäglichen KI-Implementierung beseitigen sollten, scheinen Hindernisse in Form von … zurückzukehren. Governance-AnforderungenDie Einhaltung von Vorschriften ist zwar aufwendig, aber für Unternehmen lohnenswert, für Privatpersonen jedoch möglicherweise nicht – ähnlich den Hürden, die seit dem 19. Jahrhundert bei Online-Zahlungssystemen für Verbraucher eingeführt wurden. Goldenes Zeitalter von PayPal in den 2000s.
Ob Meta 2 Milliarden Dollar wurden für Lobbyarbeit zur Alterssteuerung auf Betriebssystemebene ausgegeben. aufgrund ihrer erheblichen Investitionen in KI oder ihrer Interessen an der Datenerfassung ist das Ergebnis der Aktivitäten der großen Technologiekonzerne Unterstützung für die Alterskontrolle Es besteht die Möglichkeit, dass „lokale“ KI genauso stark reguliert wird wie eine Substanz der Klasse A; und zwar ähnlich wie der DMCA. konzipiert, um zu kriminalisieren Absicht Anstatt eines bestimmten Mechanismus zur Umgehung des Urheberrechts könnten internationale KI-Regulierungen in einem solchen Szenario jede nicht konforme Nutzung von maschinellem Lernen zu einer verbotenen Handlung machen, und zwar mit sehr geringem Aufwand (im Sinne einer aktiven Überwachung).
Das hätte vor einem Jahr vielleicht als übertrieben dystopische Sichtweise gegolten – aber das war vor der Pandemie. Kalifornien und systemd unterstützten die Idee der Altersverifizierung auf Hardwareebene, derzeit von vielen gesehen als Stellvertreter für einen CCP-Stil Verbot zum Thema Online-Anonymität.
Fazit
Während der rechtliche und legislative Rahmen also möglicherweise darauf abzielt, KI in einen stark regulierten Bereich zu integrieren, sodass Gelegenheitsnutzer nicht mehr „ihr eigenes Zeug brauen“ können, genauso wenig wie sie ohne Genehmigung regulierte Substanzen anbauen oder fermentieren dürfen, hält der Forschungssektor an seiner optimistischeren Haltung fest – nämlich, dass KI zu einer demokratisierten und nützlichen Kraft in der breiteren Gesellschaft werden wird und nicht nur den Anhängern des jeweils populärsten Anbieters proprietärer Software zugutekommt.
Vieles hängt davon ab, wie mit den Trümmern nach dem Platzen der KI-Blase umgegangen wird – zumindest insofern, als dass sich die Anbieter entweder konsolidieren oder der Markt sich in eine langfristige Balkanisierung einpendelt – was wahrscheinlich einen sanfteren regulatorischen Eingriff erfordern würde.
Erstveröffentlichung Mittwoch, 1. April 2026












