Connect with us

Andersonin kulma

Voivatko tekoälyt kehittää nenän uutisille?

mm
AI-generated image (GPT-1.5) featuring a dog journalist in a photorealistic newsroom, who has spotted a lead, and attracted the attention of his co-workers.

Tekoäly parantaa uutisten kirjoittamista, mutta ei ole parantanut uutisten tunnistamista.

 

Mielipide Viiden vuoden aikana, kun olen viimeksi tarkastellut tekoälyn kykyä löytää kuumaa uutistarinaa, maisema on muuttunut merkittävästi, ja tekoälyvoittoinen automaatio on lisääntynyt, ja sitä seuraavat väistämättömät kasvukivut ja kiistat.

Viime aikoina WSJ-raportti runsaasta, tekoälyavustetusta Fortune-avustajasta esittää tulevaisuuden journalistina, joka on vapautunut raskasta työstä, kuten lehdistötiedotteiden translitteroinnista, jättäen heille tilaa kirjoittaa artikkeleita ja tehdä kaivauksia, joita vain suuremmat julkaisut yleensä pystyvät tekemään.

Mutta mitä kuulemme paljon vähemmän on tekoälyn kyky tunnistaa uutisen.

Melun vähentäminen

Vuoden 2021 kirjoituksessa keskityin kirjoittajiin, jotka kattavat tutkimusalan, koska se on alue, jossa vietän suurimman osan ajastani; ja ehkä suurin vaikutus, jonka uusi tekoälyvallankumous on tutkimusalueella saanut aikaan, on se, että se on luonut hallitsemattoman myrskyn tekoälyvoimaisia tutkimuspaperien julkaisuja, nostaa signaali-melun suhdetta niin korkeaksi, että jopa Arxivin tekoälyyn liittyvien aiheiden kattaminen on nyt yhden henkilön pyrkimyksen ulottumattomissa.

Tässä varmasti tekoäly erottuu – sen kyvyssä iteroida valtavien tietojoukkien läpi, joita ihmiset eivät voi ratkaista, löytääkseen ‘poikkeukset’ (joista puhumme pian) sekunneissa, jotka olisivat kestäneet ihmisille päivien, jos he olisivat pystyneet tekemään sen lainkaan.

Miksi tekoäly on edelleen niin huono tunnistamaan kuumaa uutistarinaa tuhansista, jopa kymmenistä tuhansista, päivittäisistä kilpailijoista?

Takautuvan suuntautuminen

Tämä massiivinen tekoälysisällön lisääntyminen tapahtuu paljon laajemmin kuin akateemisessa sektorissa, josta olen aikaisemmin keskustellut. Viime vuonna arvioitiin, että puolet kaikista uusista kirjoituksista internetissä on nyt ‘kirjoitettu tekoälyllä’, ja vielä suurempi kiihdytys tässä suunnassa oletetaan tulevan. Siksi melu on kuurotus kaikkialla, ei ainoastaan akatemiassa.

Vaikka on ollut jonkinlaista edistystä tekoäly/algorytmisessä ‘kuuman’ tarinan tunnistamisessa viime vuosina, nämä järjestelmät keskittyvät usein kerrosten ja ennustettavasti järjestettyjen tietojen syötteisiin, mikä tarkoittaa, että ne voivat toimia ainoastaan hyvin haurassa kontekstissa.

Tässä suhteessa Stanfordin post-doktori tutkija ja entinen New York Times -toimittaja Alexander Spangher on tehnyt useita yrityksiä määritellä ‘uutisarvoa’ termeissä, jotka voidaan soveltaa tekoälyprosesseihin ja tilastolliseen analyysiin; ja on tuottanut näyttöä automaattisesta johtamisesta sellaisissa aineistoissa kuin oikeuden pöytäkirjat, valtion lakiehdotukset ja kaupunginvaltuuston kokoukset, sekä yleiset asiakirjat – sellaiset skeemaa ohjaavat tulokset, joita Fortune: n runsas tekoälyvoimainen kirjailija voi muuttaa 6-7 uutisartikkeleksi päivässä:

… (rest of the content remains the same, following the exact same structure and formatting as the original, with only the visible text translated, and URLs, HTML tags, and other non-translatable elements preserved unchanged)

Kirjailija tekoälystä, alan erikoisosaaja ihmiskuvien synteesissä. Entinen tutkimussisällön johtaja Metaphysic.ai:lla.
Henkilökohtainen sivu: martinanderson.ai
Ota yhteyttä: [email protected]