Wykorzystując model językowy Gemini do analizy milionów doniesień medialnych z całego świata, firma stworzyła system zdolny przewidywać te katastrofalne zjawiska nawet tam, gdzie brakuje specjalistycznej infrastruktury pomiarowej.
Kluczem do sukcesu okazało się nietypowe źródło danych: stare depesze informacyjne. Jak podaje serwis TechCrunch, badacze Google wykorzystali model Gemini do przeanalizowania 5 milionów artykułów prasowych. Efektem tych prac jest zbiór danych o nazwie „Groundsource”, zawierający informacje o 2,6 miliona historycznych powodzi opatrzonych znacznikami geograficznymi i czasowymi.
To pierwszy przypadek, gdy firma wykorzystała modele językowe do tego typu zadań. Pozwoliło to stworzyć „punkt odniesienia”, który posłużył do wyszkolenia sieci neuronowej typu LSTM (ang. Long Short-Term Memory). System ten łączy dane historyczne z bieżącymi prognozami pogody, aby szacować prawdopodobieństwo wystąpienia powodzi błyskawicznej w konkretnym regionie.
Szansa dla uboższych regionów
Największą wartością nowej technologii jest jej dostępność. Tradycyjne systemy wczesnego ostrzegania wymagają drogiej infrastruktury i gęstej sieci stacji meteo. Rozwiązanie Google – dostępne już na platformie Flood Hub dla 150 krajów – opiera się na danych globalnych, co pozwala „zrównoważyć mapę” i chronić mieszkańców obszarów, których nie stać na własne systemy monitoringu.
Skuteczność modelu potwierdzają już pierwsi praktycy. António José Beleza z Południowoafrykańskiej Wspólnoty Rozwoju przyznaje, że narzędzie to realnie przyspieszyło reakcję służb ratunkowych w jego regionie.
Ograniczenia i przyszłość technologii
Mimo innowacyjności, system nie jest pozbawiony wad. Obecnie oferuje on stosunkowo niską rozdzielczość (identyfikacja ryzyka dla obszarów o powierzchni 20 km²) i nie uwzględnia lokalnych danych radarowych, przez co ustępuje precyzją systemom takim jak ten używany przez amerykańską służbę pogodową (ang. National Weather Service).
Mimo to, twórcy projektu widzą w nim ogromny potencjał. Juliet Rothenberg z zespołu Google ds. odporności (ang. Resilience team) sugeruje, że metoda przekształcania opisowych źródeł tekstowych w twarde dane ilościowe może wkrótce pomóc w prognozowaniu innych trudnych do uchwycenia zjawisk, takich jak fale upałów czy osuwiska błotne.