Które spółki najskuteczniej przekonały do siebie inwestorów? To m.in. asystent kodowania Magic (320 milionów dolarów w sierpniu), dostawca usług wyszukiwania dla przedsiębiorstw Glean (260 milionów dolarów we wrześniu) i firma Hebbia zajmująca się analizą biznesową (130 milionów dolarów w lipcu). Chiński Moonshot AI pozyskał w sierpniu 300 milionów dolarów, a Sakana AI, japoński startup zajmujący się odkryciami naukowymi, zamknął w zeszłym miesiącu transzę w wysokości 214 milionów dolarów.
Eksperci swoje, fundusze swoje
To prawda, że generatywna sztuczna inteligencja, szeroki przekrój technologii obejmujący generatory tekstu i obrazów, asystentów kodowania, narzędzia do automatyzacji cyberbezpieczeństwa mają swoich przeciwników. Eksperci kwestionują niezawodność tej technologii, a także – w przypadku modeli generatywnej sztucznej inteligencji szkolonych na danych chronionych prawem autorskim bez pozwolenia – jej legalność.
Czytaj także: W cieniu wielkiej bańki. Jak bardzo przewartościowane są inwestycje w AI?
Jednak fundusze venture capital skutecznie stawiają na to, że generatywna sztuczna inteligencja zdobędzie przyczółek w dużych i dochodowych branżach oraz że na jej wzrost w długim ogonie nie będą miały wpływu wyzwania, przed którymi stoi obecnie.
Rozwój AI szybszy od zakładanego?
Być może mają rację. Raport Forrestera przewiduje, że 60% sceptyków generatywnej sztucznej inteligencji wdroży tę technologię – świadomie lub nie – do zadań od podsumowywania po kreatywne rozwiązywanie problemów. Jest to nieco bardziej optymistyczne niż prognoza Gartnera z początku roku, że 30% projektów generatywnej sztucznej inteligencji zostanie porzuconych po weryfikacji koncepcji do 2026 roku.
– Duzi klienci wdrażają systemy produkcyjne, które wykorzystują narzędzia startupów i modele open source – powiedział w wywiadzie dla TechCrunch Brendan Burke, starszy analityk ds. nowych technologii w PitchBook. — Najnowsza fala modeli pokazuje, że nowe generacje modeli są możliwe i mogą wyróżniać się w dziedzinach naukowych, wyszukiwaniu danych i wykonywaniu kodu.
Im większe wymagania obliczeniowe, tym większe przeszkody
Jedną z poważnych przeszkód w powszechnym przyjęciu generatywnej sztucznej inteligencji są ogromne wymagania obliczeniowe tej technologii. Analitycy Bain przewidują w niedawnym badaniu, że generatywna sztuczna inteligencja zmusi firmy do budowy gigawatowych centrów danych – centrów danych, które zużywają od 5 do 20 razy więcej energii niż przeciętne centrum danych zużywa obecnie – obciążając i tak już napięty łańcuch dostaw siły roboczej i energii elektrycznej.
Czytaj także: Jak wpaść w oko inwestorowi? Praktyczny poradnik dla founderów
Już teraz popyt na zasilanie centrów danych generowany przez sztuczną inteligencję przedłuża żywotność elektrowni węglowych. Morgan Stanley szacuje, że jeśli ten trend się utrzyma, globalna emisja gazów cieplarnianych w okresie do 2030 r. może być trzykrotnie wyższa niż w przypadku, gdyby generatywna sztuczna inteligencja nie została opracowana.
Kilku największych na świecie operatorów centrów danych, w tym Microsoft, Amazon, Google i Oracle, ogłosiło inwestycje w energię jądrową, aby zrównoważyć rosnące zużycie energii nieodnawialnej. We wrześniu Microsoft ogłosił, że będzie korzystać z energii pochodzącej z niesławnej elektrowni jądrowej Three Mile Island. Zanim jednak inwestycje te przyniosą owoce, mogą minąć lata.
Inwestycje w startupy zajmujące się generatywną sztuczną inteligencją nie wykazują oznak spowolnienia. ElevenLabs, wirusowe narzędzie do klonowania głosu, podobno stara się pozyskać fundusze o wartości 3 miliardów dolarów, podczas gdy Black Forest Labs, firma stojąca za osławionym generatorem obrazów X, podobno prowadzi rozmowy w sprawie rundy finansowania o wartości 100 milionów dolarów.