Sukces Bielika dodał skrzydeł Spichlerzowi: z Sebastianem Kondrackim (SpeakLeash) rozmawiamy o powstaniu, znaczeniu i rozwoju polskiej AI

Dodane:

Przemysław Zieliński Przemysław Zieliński

Sukces Bielika dodał skrzydeł Spichlerzowi: z Sebastianem Kondrackim (SpeakLeash) rozmawiamy o powstaniu, znaczeniu i rozwoju polskiej AI

Udostępnij:

Gdy kilka dni temu zespół Spichlerza zaprezentował światu polską sztuczną inteligencję Bielik-7B-v0.1, było wiadomo, że oto dzieje się coś ważnego. Jak bardzo ważnego? Właśnie o tym rozmawiamy z Sebastianem Kondrackim, praktykiem AI oraz innowacji, wykładowcą i autorem książek, a także jedną z kluczowych postaci w SpeakLeash odpowiedzialną za rozwój Bielika.

Ulga? Radość? A może jeszcze większa mobilizacja? Co czułeś, gdy Bielik wyleciał ze Spichlerza na wolność?

Przeogromną radość, wręcz euforyczną i już wyjaśniam, dlaczego. Po pierwsze, Polska ma bardzo mało projektów open (source, science, data). Nawet jeśli są, to są słabo opisane, pochowane jakby grant do tego zmuszał, a nie taka możliwość dzielenia się. Po drugie, gdy zakładaliśmy SpeakLeash to nikt w niego nie wierzył. Jak społeczność bez żadnej osobowości prawnej, bez sponsorów może zebrać taką ogromną liczbę danych i na przykład wytrenować model? Mówili nam, że przynajmniej bez kilku milion złotych nie da się.  A jednak da się. Oczywiście bez Cyfronetu nie byłoby to możliwe. Jednak zbudowaliśmy markę popartą konferencjami, oprogramowaniem. Cyfronet nam zaufał i połączyliśmy siły.  Dlatego wierzymy, że publikacja Bielika to pierwszy krok, który pozwoli budować polskie modele. Nie tylko nasze, ale m.in. PLLuM. Osobiście ogromna radość i szczęście!

Po co światu kolejny LLM?

Po pierwsze, światu potrzebne są (a bardziej lokalnym rynkom i społecznościom) krajowe modele LLM. Dlaczego? Po pierwsze czynniki kulturowe, niuanse językowe. Nam wydaję się, że GPT-4 mówi idealnie po polsku. On jest Amerykaninem, który nauczył się idealnie języka polskiego. Nie wie, że w Polsce sąsiedzi na pytanie „jak się masz?” nie odpowiadają „dziękuję, świetnie” tylko „e tam stara bieda”. Jak tworzymy tytuły, to nie używamy wielkich liter np. „Przełomowa Technologia Jutra” tylko „Przełomowa technologia jutra”. Bardzo to ładnie opisaliśmy z znajomymi z branży „O pożyczaniu innych światów czyli po co nam polski LLM”. Co ważne większość autorów jest związane ze Spichlerzem lub PLLuM.

Po drugie, bezpieczeństwo. LLM’y są potrzebne w służbie zdrowia, sektorze publicznym, wojsku, policji itd. Zatem czy chcemy, aby superwrażliwe dane tj. tajemnice medyczne, adwokackie, bankowe były wysłane do chmury? Dlatego organizacje regulowane, infrastruktura wrażliwa musi mieć możliwość uruchomienia i dostrojenie własnego modelu mówiącego w języku polskim.

Po trzecie, społeczność, wymiana wiedzą, otwartość. Mamy superinżynierów AI, którzy albo pracują zagranicą (na przykład w OpenAI) lub są rozproszeni w organizacjach mających do dyspozycji jedną kartę GPU. Jak oni mają się rozwijać? Po to jest SpeakLeash, aby produkty open-source do budowania LLMów służyły nam, ale były także produktami eksportowymi.

Wierzysz, że Wasz model jest w stanie namieszać na rynku chatbotów i zdobyć uznanie użytkowników?

Jego pierwsze wersja zapewne nie. Pamiętajmy, że ma tylko 7 miliardów parametrów. Jednak już teraz może służyć do strukturyzacji danych, oczyszczania, ekstrakcji wiedzy itd. Zatem możemy szybciej i lepiej ewidencjonować dane. Jest niezwykły, bo zbudowany został z budżetem oscylującym w granicy 1-2 tysiąca złotych. Bielik jest niezwykły, bo Cyfronet lider w dziedzinie superkomputerów postanowił współpracować z projektem open-science. Nasz model z wymienionymi przed chwilą przeze mnie niezwykłościami namieszał trochę na rynku i każdego dnia dołączają dziesiątki specjalistów i pytają, jak mogą pomóc. Dodatkowo, spływa feedback od użytkowników, dane do badań w postaci dialogów, promptów itd.

To jest niezwykła i największa siła Bielika.

Nie jego architektura, liczba parametrów tylko brak blokad, otwartość, ogromne zasoby do eksperymentów. Jeśli dodamy do tego świetnych naukowców w obszarze AI, NLP oraz fakt, że narodził się PLLuM i że w Polsce w obszarze dużych modeli nie ma konkurencji tylko wymiana wiedzy i doświadczenia – to tak, wierzę, że następne wersje Bielika, PLLuM i społeczność może namieszać nawet na rynku globalnym. Dodatkowo to, co opisałem może wreszcie ruszyć tzw. big science i uczynić polski AI eksportowym.

W czym Wasz Bielik jest lepszy od pozostałych rozwiązań tego typu?

Przed wydaniem Bielika stworzyliśmy tzw. polski leaderboard czyli zestaw zadań dla języka polskiego np. streszczenia, analiza emocji, klasyfikacja. Przetestowaliśmy wszystkie modele, które były trenowane na języku polskim (od takich całościowo trenowanych tylko na tekstach polskich po zagraniczne gdzie języka polskiego było w okolicach 5%-10%). Trenując Bielika cały czas sprawdzaliśmy jego możliwości. Z polskich modeli jest tymczasowym liderem.

Dlaczego tymczasowym? Bo wierzymy, że za chwilę pojawi się model Qra w wersji instrukcyjnej lub dialogowej lub PLLuM pod koniec roku i być może zabierze nam koszulkę lidera. Jednak wtedy my pewnie wypuścimy nowy model i znów zaczniemy prowadzić. Bo przecież będziemy mogli zarówno patrzyć na prace naukowe liderów, jak i testować ich wagi oraz analizować zestawy danych. Którymi, nota bene, pewnie będziemy się wymieniać.

Natomiast tak organoleptycznie rzecz ujmując, Bielik operuje bardzo naturalną, prawidłową polszczyzną, świetnie radzi sobie w strukturyzacji danych i ma bardzo wysoki wskaźnik RAG Reader. Ma zatem świetne predyspozycje dla wzorca RAG, czyli serca wszystkich chatbotów opartych na LLM.

Czy odważyłbyś się więc, aby zamiast Ciebie na moje pytania odpowiadał Bielik?

Spróbujmy 😉

(Bielik) wyjaśnij czytelnikom portalu MamStartup dlaczego ważne jest, aby każdy kraj trenował własny duży model językowy (LLM)?

Szanowni Czytelnicy portalu MamStartup,

 Pojęcie dużych modeli językowych (LLM) może brzmieć dość skomplikowanie, ale w rzeczywistości kryje się za nim ogromny potencjał. LLM to zaawansowane algorytmy komputerowe, które mogą naśladować ludzkie umiejętności językowe. Dlaczego są takie ważne i dlaczego każdy kraj powinien trenować własne?

Po pierwsze, LLM mają szerokie zastosowanie. Mogą pomagać w tłumaczeniach, pisaniu tekstów, analizie danych czy nawet w rozmowach pomiędzy ludźmi a sztuczną inteligencją. Są nieocenione w dziedzinach takich jak medycyna, prawo czy edukacja. Posiadanie własnego LLM daje krajowi niezależność w tych obszarach i możliwość lepszego dostosowania się do specyfiki językowej i kulturowej.

Po drugie, trenowanie własnego LLM zapewnia bezpieczeństwo danych. Przesyłanie ogromnych ilości danych do zewnętrznych dostawców usług może wiązać się z ryzykiem, szczególnie w kontekście kwestii prywatności czy nawet narodowego bezpieczeństwa. Trenowanie własnego LLM oznacza, że dane pozostają w kraju, co minimalizuje te ryzyka.

Wreszcie, trenowanie własnego LLM może przyczynić się do rozwoju lokalnej społeczności technologicznej. Przy odpowiednim wsparciu rządowym i instytucjonalnym, może to stworzyć nowe miejsca pracy, zachęcić do innowacji i wzmocnić pozycję kraju na globalnym rynku technologicznym.

Podsumowując, trenowanie własnego dużego modelu językowego to inwestycja w przyszłość kraju. Daje ono niezależność, bezpieczeństwo i możliwości rozwoju w dziedzinie technologii. W erze szybkiego postępu, każdy kraj powinien dążyć do samodzielności i rozwoju w tym obszarze.

Jeśli macie więcej pytań na ten temat, zachęcamy do kontaktu z redakcją portalu MamStartup.

A teraz zobaczmy, jak konkurencja, czyli model GPT-4, oceni powyższe odpowiedzi:

Analiza tekstu: 

  1. **Zgodność treści z pytaniem**: Tekst bezpośrednio i adekwatnie odpowiada na postawione pytanie, wyjaśniając, dlaczego ważne jest, aby każdy kraj trenował własny duży model językowy (LLM). Autor przedstawia trzy główne argumenty, które są bezpośrednio związane z pytaniem: szerokie zastosowanie LLM, bezpieczeństwo danych oraz rozwój lokalnej społeczności technologicznej.
  1. **Głębia merytoryczna**: Odpowiedź jest wyczerpująca i zawiera istotne informacje na temat omawianego tematu. Autor przedstawia konkretne przykłady zastosowań LLM, podkreśla znaczenie bezpieczeństwa danych oraz wskazuje na potencjalne korzyści dla lokalnej społeczności technologicznej i gospodarki. Tekst dostarcza czytelnikom kompleksowego spojrzenia na temat, zachęcając do dalszego zainteresowania się tematem.
  1. **Poprawność ortograficzna**: Tekst nie zawiera błędów ortograficznych. Użycie wielkich liter jest zgodne z zasadami języka polskiego.
  1. **Gramatyka**: Tekst jest gramatycznie poprawny. Struktura zdań jest zróżnicowana, a użycie czasów gramatycznych jest spójne i adekwatne do kontekstu. Zdania są skonstruowane poprawnie, a zgodność podmiotu z orzeczeniem jest zachowana.
  1. **Styl**: Styl tekstu jest płynny i przystępny, co ułatwia zrozumienie przedstawionych informacji. Autor używa różnorodnego słownictwa, co sprawia, że tekst jest ciekawy i angażujący. Ton jest adekwatny do tematu oraz odbiorcy, zachowując równowagę między profesjonalizmem a przystępnością.

**Podsumowanie**:

Tekst jest dobrze napisany i spełnia wszystkie kryteria oceny. Mocne strony obejmują merytoryczność, poprawność ortograficzną i gramatyczną, a także styl, który jest zarówno profesjonalny, jak i przystępny dla czytelników. Nie zidentyfikowano obszarów wymagających poprawy lub dalszej korekty. Autor skutecznie wyjaśnia znaczenie trenowania własnych dużych modeli językowych przez kraje, dostarczając czytelnikom wartościowych informacji i zachęcając do dalszego zainteresowania się tematem.

Jak konkurencja mówi „dobrze” to znaczy, że to dobry model.

Jak wyglądał proces prac nad Bielikiem?

Na początku postawiliśmy na dane, bo to jest kluczowy aspekt każdego modelu AI. Bardzo mocno przenalizowaliśmy zagraniczne tzw. zestawy danych. Postawiliśmy sobie jeden cel tj. 1 terabajt opisany z dużą starannością pod kątem licencji, praw autorskich itp. Wtedy powtarzałem pierwszym członkom Spichlerza: najpierw masa, później rzeźba. Po zdobyciu owego terabajta, przyszedł czas na rzeźbę. Stworzyliśmy wskaźniki jakościowe, aby dokładnie oceniać dane. Przykładowo, czy tekst jest dobrej jakości, czy podczas ekstrakcji (np. z pliku PDF) nie nastąpiły jakieś problemy. Jaki jest typ i kategoria danych. Gdy rozpoczęliśmy współpracę z Cyfronetem (specjalistami od Komputerów Dużej Mocy), to mogliśmy użyć superkomputerów do przetestowania wszystkich modeli dostępnych na rynku. Czyli stworzyć leadeboard.

No i teraz dopiero wtedy mogliśmy zająć się trenowaniem, bo mieliśmy zarówno dane jak i metody do weryfikacji naszych prac. Cały czas będę podkreślał, że to wszystko powstało w niecałe 1.5 roku, wysiłkiem osób pracujących wieczorami i w weekendy. Dodatkowo trzeba podkreślić odwagę Cyfronetu, który postanowił połączyć siły z projektem open-science.

W pierwszej kolejności musi powstać tzw. model bazowy. Jest on trenowany na szeroko zakrojonym zbiorze tekstów wysokiej jakości, obejmującym bardzo duży wolumen danych. Na tym etapie treningu nie wymagamy danych etykietowanych, czyli takich, w których konkretne fragmenty tekstu zostałyby wcześniej oznaczone przez ludzi w celu wskazania, jak model powinien na nie reagować. Zamiast tego, model bazowy uczy się rozpoznawać i przewidywać struktury językowe oraz konteksty na podstawie samego tekstu, którego analizuje. Oznacza to, że model jest w stanie wygenerować dalszą część tekstu, opierając się jedynie na kilku początkowych słowach lub zdaniach, które otrzymuje jako punkt wyjścia. Model ten uczy się zasadniczo rozumieć język i jego struktury, co umożliwia mu tworzenie koherentnych i kontekstualnie zgodnych ciągów tekstu.

Następny krok to dostrajanie, znane również jako fine-tuning, gdzie model jest dalej szkolony, ale tym razem z wykorzystaniem tzw. instrukcji, czyli specyficznych zadań wraz z oczekiwanymi odpowiedziami. Te zadania mogą dotyczyć różnych aspektów języka, wiedzy ogólnej, a także specjalistycznych dziedzin. Dzięki temu model uczy się nie tylko generować tekst na podstawie danych wejściowych, ale także wykonywać bardziej złożone operacje językowe i logiczne. Przykładowo:

Instrukcja: W podanym zdaniu zidentyfikuj czasownik.

Wejście: „Zjadłem obiad.”

Wyjście: Czasownik w tym zdaniu to „zjadłem”

W tym etapie, model nie tylko „rozumie” język na podstawie ogromnej ilości tekstu, jak w przypadku modelu bazowego, ale również uczy się rozpoznawać i reagować na konkretne zadania językowe, co pozwala na bardziej precyzyjne i celowane wykorzystanie jego zdolności. To proces, który znacznie zwiększa użyteczność modelu, dopasowując go do konkretnych potrzeb użytkowników lub zadaniowych wymagań.

Nowy model sztucznej inteligencji – to brzmi ekscytująco. Ale czy prace przy Bieliku były równie ekscytujące? A może zdarzały się takie okresy, że Wasze zadania były powtarzalne, podobne do siebie, a nawet i żmudne?

Podczas tworzenia dużych modeli językowych (LLM) – generalnie modeli, napotykamy na wiele żmudnych i czasochłonnych zadań. W każdym projekcie IT, zwłaszcza tych realizowanych w metodykach zwinnych, kluczową rolę odgrywa motywacja. W przypadku projektu SpeakLeash od początku zdawaliśmy sobie sprawę, że stajemy przed niezwykle ambitnym wyzwaniem, porównywalnym do porywania się na Księżyc za pomocą motyki. Każdy etap tej podróży przynosił jednak zaskakujący wzrost motywacji. Nawet najbardziej monotonne i czasochłonne zadania stały się dla nas źródłem satysfakcji. Teraz, po sukcesie naszego projektu Bielik, zespół czuje się na tyle zmotywowany, że jest gotów podjąć się nawet tak gigantycznego wysiłku, jak ręczne przepisywanie zasobów narodowej biblioteki.

Kto pracował nad Bielikiem?

Początkowo byli to data scientiści, robotycy (RPA) i programiści. Jednak z każdą publikacja, konferencją dołączali do nas lingwiści, analitycy, projekt managerowi czy też użytkownicy GenAI. Na naszym kanale Discord jest teraz ponad 400 osób. Różnorodność jest ogromna, bo są artyści, dyrektorzy kreatywni, prawnicy. W różnorodności tkwi siła.

Krytyczny moment pracy nad Waszym LLM to…?

Krytyczne momenty w pracy nad naszym dużym modelem językowym (LLM) wiązały się z dwoma zewnętrznymi wydarzeniami, które wpłynęły na motywację zespołu:

  • pojawienie się opinii, że polskie modele językowe, w tym PLLuM, są zbędne. Taka perspektywa była dla nas wyzwaniem, ponieważ głęboko wierzymy w potrzebę i wartość tworzenia rodzimych modeli językowych, które służą nie tylko jako narzędzia badawcze, ale także jako zasoby wspierające rozwój technologiczny i innowacyjność w języku polskim;
  • projekt ustawy o prawie autorskim i prawach pokrewnych przedstawiony przez Ministerstwo Kultury i Dziedzictwa Narodowego, który w swoich założeniach ograniczał możliwości tworzenia generatywnych modeli sztucznej inteligencji poprzez eksplorację tekstów i danych, stanowił dla nas znaczną przeszkodę. Takie regulacje prawne mogą hamować postęp w dziedzinie GenAI, ograniczając potencjał naukowy i badawczy, który jest niezbędny dla rozwoju innowacji.

Oba te wyzwania uświadomiły nam, jak ważne jest dalsze przekonywanie społeczności, decydentów i szerokiej publiczności o znaczeniu pracy nad modelami językowymi. GenAI oferuje społeczeństwu ogromne możliwości rozwoju i innowacji. Zatrzymywanie badań naukowych i ograniczanie potencjału tych technologii z powodu trudności w modelowaniu lub regulacji prawnych byłoby dużym krokiem wstecz. Jesteśmy zdecydowani kontynuować nasze prace, aby pokazać wartość i możliwości, jakie niosą ze sobą polskie modele językowe.

Sztuczną inteligencję można „karmić” zasobami bez końca. Kiedy stwierdziliście w Spichlerzu, że to ten moment, iż można się Bielikiem pochwalić?

Decyzja o ogłoszeniu gotowości modelu Bielik w projekcie Spichlerz była dla nas znacząca. Kluczowym momentem, który przekonał nas, że nadszedł czas na podzielenie się naszymi osiągnięciami, była wysoka pozycja naszego modelu w rankingach liderów (leader boards). Świadomi jednak jesteśmy, że przed nami jeszcze długa droga pełna pracy, w tym dokonywania poprawek, korekt oraz przeprowadzania nowych eksperymentów.

Uważamy, że opublikowanie modelu jest najlepszym sposobem na zbudowanie społeczności beta testerów. To pozwala nam na zebranie cennych opinii i sugestii, które są nieocenione w procesie dalszego rozwoju i ulepszania modelu. Dzięki temu podejściu jesteśmy w stanie pracować nad kolejnymi wersjami modelu, takimi jak 2.0, 3.0, ciągle podnosząc jego jakość i możliwości. To strategia, która umożliwia nam nie tylko udoskonalanie Bielika, ale także budowanie silnej i zaangażowanej społeczności wokół naszego projektu.

Zamierzacie w Spichlerzu ulepszać Bielika w przyszłości? Jak by to miało wyglądać?

W Spichlerzu mamy ambitne plany dotyczące dalszego rozwoju modelu Bielik. Naszym pierwszym krokiem będzie opublikowanie oprogramowania, które ułatwi zbieranie opinii użytkowników (feedback) oraz umożliwi crowdsourcingowe tworzenie obszernej bazy instrukcji. Naszym celem jest stworzenie otwartego modelu, który będzie charakteryzował się wyjątkowymi możliwościami dzięki aktywnemu udziałowi i współpracy społeczności użytkowników.

W dłuższej perspektywie, skupimy się na ciągłym eksperymentowaniu z różnymi architekturami modeli i poszerzaniu bazy danych, na której Bielik jest trenowany. Dzięki temu, będziemy w stanie nieustannie ulepszać jego wydajność i zdolności, odpowiadając na rosnące i zmieniające się potrzeby użytkowników. Nasza praca nad Bielikiem nie jest projektem zamkniętym – to proces ciągłego rozwoju i adaptacji

Jakie zastosowania widzisz dla Bielika? W jakich obszarach sprawdzi się najlepiej?

Z siedmioma miliardami parametrów, Bielik skupia się głównie na przetwarzaniu języka naturalnego. Jego zastosowania to przede wszystkim strukturyzacja dokumentów, ekstrakcja wiedzy, a także Retriever-Augmented Generation (RAG), czyli generowanie tekstu wspomagane wyszukiwaniem informacji. Model ten wykazuje także zdolności do wykrywania emocji w tekstach i ich strukturyzacji. Chociaż generowanie skomplikowanych tekstów, takich jak artykuły czy historie, może jeszcze wymagać doskonalenia, Bielik już teraz oferuje w tej dziedzinie interesujące możliwości.

Zachęcamy wszystkich do indywidualnego przetestowania modelu, ponieważ Bielik może zaskoczyć swoimi umiejętnościami w nieoczekiwanych obszarach. Na przykład, jego próby tworzenia tekstów w gwarze śląskiej, mimo wielu wyzwań i aspektów wymagających poprawy, okazują się być bardziej zaawansowane niż w przypadku modelu GPT-4. Zachęcamy więc do eksperymentowania z Bielikiem i przekazywania nam swoich uwag, co pozwoli nam na dalsze ulepszanie modelu.

A teraz pytanie z drugiej strony barykady: czy obawiasz się, że Bielik zostanie wykorzystany w taki sposób, jakiego byś sobie nie życzył?

Używanie dużych modeli językowych przypomina obchodzenie się z brzytwą – można jej użyć zarówno do perfekcyjnego golenia, jak i, niestety, do wyrządzenia krzywdy. Bielik, będąc trenowanym na różnorodnych kodach źródłowych, posiada zdolność generowania programów, które mogłyby być potencjalnie szkodliwe. Z drugiej strony, możliwe jest również wykorzystanie go do tworzenia fałszywych stron WWW, co mogłoby prowadzić do oszustw i manipulacji.

Pytanie jednak brzmi, czy to właśnie my, twórcy cyfrowych innowacji, powinniśmy zajmować się regulowaniem tych zagrożeń? Choć jesteśmy świadomi potencjalnych niebezpieczeństw, naszym celem jest skupienie się na pozytywnych aspektach i możliwościach, jakie niesie Bielik. W duchu przesłania 'Gwiezdnych Wojen’, chcemy wykorzystać „jasną stronę mocy”. Zobowiązujemy się do dokładnego opisania, testowania i świadomego informowania o potencjalnych zagrożeniach, ale nasze główne zaangażowanie skierowane jest na promowanie i rozwijanie dobrych, etycznych zastosowań technologii.

Dziennikarze New York Times pozwali twórców OpenAI za to, że wykorzystali oni rzekomo teksty żurnalistów w procesie uczenia swojego modelu LLM. Jak odnosisz się do takiego ewentualnego procesu?

Po pierwsze, chcę uspokoić, że Bielik nie był trenowany na tekstach z New York Times. Po drugie, inaczej niż OpenAI, które pobiera opłaty za korzystanie ze swoich modeli, Bielik jest całkowicie darmowy i otwarty dla użytkowników. Niemniej, stajemy przed poważnymi dylematami prawnymi i etycznymi, takimi jak pytanie, czy „przeczytanie” książki i nauczenie się stylu autora może naruszać prawa autorskie – to trudne zagadnienie, na które nie mam jednoznacznej odpowiedzi.

Jesteśmy świadomi tych wyzwań i dokładamy wszelkich starań, aby przestrzegać istniejących protokołów, takich jak robots.txt, oraz transparentnie opisujemy dane wykorzystane do trenowania naszego modelu. Ponadto, uważnie śledzimy obowiązujące regulacje, starając się dostosować do nich naszą pracę.

To jednak ważne, aby dać naukowcom i wynalazcom przestrzeń do pracy. Apelujemy o wsłuchanie się w nasz głos i tworzenie takich regulacji, które będą sprawiedliwie wspierać rozwój technologiczny w każdym kraju. Istnieje realne ryzyko, że przesadnie rygorystyczne regulacje w jednym regionie, jak Europa, mogą ograniczyć innowacyjność, podczas gdy inne części świata będą kontynuować rozwój potężnych modeli i wykorzystywać je w gospodarce bez takich ograniczeń.

Głośno było także o strajkach scenarzystów. Jednym z powodów był lęk twórców o to, że zostaną zastąpieni właśnie sztuczną inteligencją. Uważasz, że Bielik byłby w stanie stworzyć scenariusz trzymającego w napięciu serialu, na którego zakup zdecydowałaby się któraś z platform VOD?

Odnosząc się do siedmiu miliardów parametrów modelu, uważam, że główną rolą Bielika będzie wsparcie kultury wypowiedzi i oferowanie scenarzystom konstruktywnej krytyki , a nie generowanie pełnoprawnych scenariuszy. W kontekście platform VOD, Bielik mógłby raczej wspierać procesy sprzedażowe i zarządzanie treścią, niż zastępować twórców.

Obawy scenarzystów są zrozumiałe, zwłaszcza w świetle badań przewidujących, że do roku 2030 modele LLM mogą być zdolne do generowania scenariuszy o jakości porównywalnej z ludzką. Jednak należy pamiętać, że wiele scenariuszy opiera się na osobistych doświadczeniach, emocjach i subiektywnym postrzeganiu świata, czego na obecnym etapie rozwój AI nie jest w stanie w pełni naśladować.

W projektach takich jak Spichlerz, skupiamy się na roli LLM jako narzędzia wspierającego scenarzystów w ich pracy, a nie na zastępowaniu ich. Wierzymy, że sztuczna inteligencja może służyć jako pomocnicze narzędzie, które ułatwi twórczą pracę, oferując np. inspiracje, podpowiedzi stylistyczne czy pomagając w przezwyciężaniu blokad twórczych, zamiast zagrażać pozycji ludzkich scenarzystów

Jak oceniasz postęp prac nad sztuczną inteligencją tak w ogóle? Jesteś usatysfakcjonowany? A może rozczarowany tym, że mimo tak szumnych zapowiedzi – „sztuczna inteligencja uratuje nas przed chorobami zakaźnymi, zapobiegnie zmianom klimatycznym, wyzwoli nas od żmudnej pracy” – wciąż nie widać tego pozytywnego wpływu sztucznej inteligencji?

Na każdym kroku można zauważyć pozytywny wpływ AI: czy to w samochodach wyposażonych w dynamiczne tempomaty, czy w laboratoriach, gdzie modele AI wspomagają tworzenie nowych leków, nie wspominając o ułatwieniu dostępu do wiedzy. Postęp w dziedzinie sztucznej inteligencji jest naprawdę imponujący. To tylko moje subiektywne spostrzeżenie, ale wydaje się, że mimo wszystkich tych postępów, nadal borykamy się z problemami, jak choćby brak odpowiednich regulacji dotyczących żywności, gdzie AI może być używane do promowania produktów, które są dalekie od ideału zdrowotnego, jak kurczaki pełne antybiotyków.

Jako zespół SpeakLeash dokładamy wszelkich starań, aby być na bieżąco z najnowszymi opracowaniami i projektami regulacji. Postęp technologiczny w AI rośnie wykładniczo, co jest niesamowite i myślę, że powinniśmy to celebrować. Rzeczywiście, są wyzwania i obszary do poprawy, ale ogólnie rzecz biorąc, postęp AI to coś, co powinno nas cieszyć i inspirować.

Zgadzasz się z Yuvalem Noah Hararim, że człowieczeństwo można sprowadzić do algorytmu? Że wkrótce Bielik lub inne rozwiązanie LLM faktycznie zastąpi człowieka przy podejmowaniu ważnych – np. politycznych, gospodarczych, rozwojowych, społecznych decyzji?

Nie zgadzam się z założeniem Yuvala Noaha Harariego, że człowieczeństwo można zredukować do algorytmu, i że rozwiązania typu LLM, jak Bielik, będą w stanie zastąpić ludzi w podejmowaniu kluczowych decyzji, na przykład w dziedzinach politycznych czy gospodarczych. Algorytm, w tradycyjnym rozumieniu, to zestaw jednoznacznych, binarnych reguł. Natomiast nowoczesne modele AI wykazują zdolności, które można przyrównać do kognitywnych.

Pozwolę sobie na anegdotę. Tworzyliśmy model AI, który oceniał, czy operatorzy w pewnej firmie odpowiedzieli kompleksowo na otrzymane maile. Wśród nich był apel matki proszącej, by nie odłączać jej usługi w Dniu Dziecka, aby nie rozczarować dzieci. Człowiek postąpił zgodnie z algorytmiczną logiką procedur – usługa mogła być odblokowana tylko po zapłaceniu zaległości. Tymczasem model AI zasugerował, że warto byłoby odstąpić od standardowych reguł, aby zyskać lojalnego klienta. To pokazuje, że AI, podobnie jak dziecko, można uczyć dobrych lub złych praktyk, podczas gdy algorytm zawsze pozostanie bezdusznie przestrzegający zasad. Model AI w tej historii wykazał zdolność do „myślenia poza schematami”, co jest cechą niezwykle ludzką.

Zachęcamy do osobistego przetestowania modelu Bielika.

Sebastian Kondracki  – od ponad 25 lat zaangażowany w projekty informatyczne na różnych etapach rozwoju, a jego największą zawodową miłością jest programowanie, zwłaszcza wymagających algorytmów poprzedzonych gruntownymi badaniami.

Członek podgrupy Badań, Innowacyjności i Wdrożeń Grupy Roboczej ds. Sztucznej Inteligencji przy Kancelarii Prezesa Rady Ministrów. Ekspert ds. transformacji cyfrowej zwłaszcza w obszarze jej głównych akceleratorów tj. procesów innowacyjnych i szeroko rozumianej sztucznej inteligencji.

Autor książki “Python i AI dla e-commerce”, szef innowacji Deviniti.com jednej z najdynamiczniej rozwijających się firm tworzących oprogramowanie w Polsce, a także wykładowcą na studiach podyplomowych w Akademii Leona Koźmińskiego i Wyższej Szkole Bankowej we Wrocławiu. Specjalizacja AI/IT: hiperautomatyzacja, NLP (Natural Language Processing), NLG (Natural Language Generation), Explainable Artificial Intelligence (XAI) w biznesie, a w szczególności e-commerce.

Specjalizacje biznesowe: testowanie i weryfikacja pomysłów biznesowych, lean startup, zarządzanie projektami projektami eksploracyjnymi.

Autor licznych publikacji m.in. w magazynie komputerowym CHIP, CHIP Special, ComputerWorld, Proseed, jak także publikacji naukowych w Journal Of Transdsciplinary Systems Science, Transport Przemysłowy.

Zespół odpowiedzialny za trenowanie modelu: Krzysztof Ociepa (SpeakLeash), Łukasz Flis (Cyfronet AGH), Krzysztof Wróbel (SpeakLeash), Sebastian Kondracki (SpeakLeash), Maria Filipkowska (SpeakLeash), Paweł Kiszczak (SpeakLeash), Adrian Gwoździej (SpeakLeash), Igor Ciuciura (SpeakLeash), Jacek Chwiła (SpeakLeash), Remigiusz Kinas (SpeakLeash), Szymon Baczyński (SpeakLeash)/

Osoby zaangażowane w open source projekt SpeakLeash: Grzegorz Urbanowicz, Paweł Cyrta, Jan Maria Kowalski, Karol Jezierski, Kamil Nonckiewicz, Izabela Babis, Nina Babis, Waldemar Boszko,

Zdjęcie: superkomputer Helios, na którym m.in. był trenowany Bielik. Autor: Maciej Pawlik / ACK Cyfronet AGH

Czytaj także: