Autokorekta AI? Relatywnie szybko, problemy już pęcznieją – wywiad z Aleksandrą Przegalińską-Skierkowską

Dodane:

Przemysław Zieliński Przemysław Zieliński

Autokorekta AI? Relatywnie szybko, problemy już pęcznieją – wywiad z Aleksandrą Przegalińską-Skierkowską

Udostępnij:

O tym, co w sztucznej inteligencji najciekawsze, najbardziej perspektywiczne – ale także i groźne, niebezpieczne, ryzykowne opowiada w wywiadzie dr hab. Aleksandra Przegalińska-Skierkowska, jedna z najbardziej cenionych polskich ekspertek od AI. Swoją wiedzą Aleksandra Przegalińska-Skierkowska podzieli się także podczas tegorocznego Infoshare, gdzie jest prelegentką.

Co poczułaby Pani, gdyby jutro obudziła się Pani bez sztucznej inteligencji w jakiejkolwiek postaci?

Byłoby to niewątpliwie wyzwanie, ale także ciekawa okazja do refleksji nad tym, jak technologia wpływa na nasze życie. Z pewnością czułabym się trochę jak w podróży w czasie do przeszłości, gdzie wszystko robi się wolniej i wymaga więcej bezpośredniego zaangażowania, bo już bardzo przyzwyczaiłam się do AI. To mogłoby być inspirujące, skłaniając do głębszego zastanowienia się nad tym, jakie elementy mojej codzienności są naprawdę niezbędne, a co mogłabym robić inaczej.

Rozwój sztucznej inteligencji do tej pory przebiega – tak się przynajmniej zdaje – wzorcowo. Czy spodziewa się Pani momentu swoistej autokorekty, a co za tym idzie – kryzysu, zastoju w tym rozwoju?

Rozwój sztucznej inteligencji jest rzeczywiście imponujący i raptowny, ale tak jak każda technologia, może osiągnąć punkt, w którym potrzebna będzie autokorekta. Zakładam, ze ona nastąpi relatywnie szybko, bo pęcznieją już problemy związane chociażby z własnością intelektualną. Przyszłe wyzwania, takie jak kwestie etyczne czy nierówności społeczne, mogą wymagać od nas refleksji nad kierunkiem, w którym prowadzimy rozwój AI. Ale dla mnie autokorekta nie musi wcale oznaczać kryzysu, lecz jest często zdrowym mechanizmem zapewniającym zrównoważony i odpowiedzialny rozwój, skupiający się na długoterminowych korzyściach dla społeczeństwa.

Nassim Taleb w „Antykruchości” zwraca przede wszystkim uwagę na to, że ludzie, instytucje, idee nabierają odporności wskutek uszkodzeń, kryzysów, popełnianych błędów. Pod warunkiem, że mamy nad nimi kontrolę, korygujemy je i z takich przygód wychodzimy wzmocnieni. Czy sztuczna inteligencja jest zdolna do takiej autoregulacji i usprawniania się?

Odnosząc koncepcje Taleba do sztucznej inteligencji, można stwierdzić, AI ma potencjał do pewnego stopnia autoregulacji, a może raczej samo-optymalizacji, głównie poprzez uczenie maszynowe, gdzie systemy mogą poprawiać swoje działanie na podstawie analizy zgromadzonych danych i wyników swoich poprzednich działań. Jednak pełna autoregulacja, która obejmuje zdolność do kompleksowego rozpoznania i poprawiania własnych błędów, jest bardziej skomplikowana. Obecne modele AI są ograniczone do ram zaprogramowanych przez ludzi i często wymagają ludzkiej interwencji do rekalibracji lub dostosowania algorytmów w odpowiedzi na nieprzewidziane sytuacje lub błędy.

Dalsze badania w dziedzinie sztucznej inteligencji koncentrują się na rozwoju bardziej zaawansowanych systemów, które byłyby zdolne do bardziej autonomicznej adaptacji i nauki, co zbliżyło je do idei antykruchości Taleba. Mowa tutaj chociażby o rozumieniu praw fizyki czy myśleniu przyczynowo-skutkowym.

Wiele mówi się o tym, że sztuczna inteligencja ma pomóc pracownikom, uczynić ich życie łatwiejszym. Ale czy nie jest to ułuda, kreowana przez szefów globalnych korporacji, którzy w ten sposób prowadzą narrację o AI, a jednocześnie wykorzystują ją do zwiększania produktywności i zmniejszenia płaconych podatków?

Rzeczywiście, postrzeganie sztucznej inteligencji jako narzędzia wspomagającego pracowników może być czasami idealistycznym ujęciem, które nie do końca odzwierciedla rzeczywistość. Chociaż AI ma potencjał do znacznego ułatwienia pracy, poprzez automatyzację rutynowych i czasochłonnych zadań, a także wsparcie zadań kreatywnych, jest to również narzędzie, które może być wykorzystywane przez korporacje do zwiększania produktywności i optymalizacji kosztów, w tym poprzez redukcję zatrudnienia. Obyśmy tego widzieli jak najmniej. My jako zespół badawczy z Akademii Leona Koźmińskiego mocno promujemy podejście współpracującej sztucznej inteligencji (collaborative AI), które ma wymiar normatywny: ma nie wypierać, lecz wspierać pracowników, dając szansę nie tylko na lepsze wyniki, ale i większy dobrostan. Promujemy to także w projekcie Campus AI, w którym uczymy podstaw generatywnej sztucznej inteligencji jako narzędzia w pracy zawodowej. Wierzę, że przynajmniej część korporacji wdroży właśnie takie podejście jako dobry benchmark.

Inny zarzut wobec AI, ale również zahaczający o kwestię elitarności, dotyczy tego, że treści dostarczane przez ChatGPT lub inne modele językowe mogą zawierać błędy. Ale będą to błędy, które wychwycą jedynie eksperci, znawcy tematu, pasjonaci, naukowcy.

Zgadza się, istnieje ryzyko związane z błędami generowanymi przez AI, takie jak ChatGPT, które mogą nie być zauważalne dla większości użytkowników, ale są widoczne dla ekspertów. Jeśli użytkownicy zbytnio zaufają wynikom dostarczanym przez AI, mogą nie kwestionować ich prawdziwości, co jest szczególnie ryzykowne w dziedzinach wymagających dokładności, jak medycyna czy nauka. Takie sytuacje mogą prowadzić do rozprzestrzeniania się nieprecyzyjnych informacji, które mogą być traktowane jako wiarygodne przez osoby nieposiadające odpowiedniej wiedzy specjalistycznej. W odpowiedzi na to wyzwanie ważna jest rola edukacji na temat AI oraz regulacji, które pomagają zapewnić, że ograniczenia systemów AI są transparentne i zrozumiałe dla użytkowników. Ponadto, kluczowa jest odpowiedzialna rozbudowa AI, z uwzględnieniem współpracy między różnymi grupami specjalistów, aby zminimalizować ryzyko błędów i ich potencjalnie negatywny wpływ.

Jest Pani kobietą nauki. Poświęciła Pani ogrom czasu na zdobycie wykształcenia. Musiała Pani sięgać po wiele źródeł wiedzy, konfrontować się z najprzeróżniejszymi opiniami. Mieć otwartą głowę i być gotową na naukę kolejnych faktów. Tymczasem, modele językowe – czy to ChatGPT, czy to nasz rodzimy Bielik – uczą się z zamkniętego obiegu informacji, z internetu. Czy dla Pani idea tego procesu nie jest zaprzeczeniem terminu „nauka”, „edukacja”?

Modele językowe uczą się z ogromnych zbiorów danych z internetu, co stanowi zasadniczą różnicę w porównaniu do tradycyjnych metod zdobywania wiedzy, opartych na różnorodnych źródłach i bezpośrednim kontakcie z nauczycielami oraz ekspertami. Chociaż proces ten można uznać za pewną formę nauki, to znacznie różni się od ludzkiego modelu edukacji, który obejmuje dyskusje, eksperymenty oraz rozwijanie umiejętności krytycznego myślenia i adaptacji. Modele te zatem, mimo że skutecznie gromadzą i odtwarzają informacje, nie posiadają zdolności do głębszego zrozumienia czy samodzielnej krytycznej analizy. Dlatego, mimo ich niezaprzeczalnej użyteczności w pewnych aspektach edukacyjnych, takich jak dostarczanie informacji czy wsparcie w nauce języków, nie mogą one zastąpić pełnej gamy ludzkich doświadczeń edukacyjnych i intelektualnych. To podkreśla, że technologia powinna być traktowana jako narzędzie wspierające rozwój ludzki, a nie jako jego substytut.

Jest Pani znakomicie obeznana z zastosowaniem sztucznej inteligencji. Które z nich najbardziej Panią zaskoczyło?

Jednym z zastosowań sztucznej inteligencji, które zaskoczyło mnie najbardziej, jest jej wykorzystanie w ochronie środowiska, szczególnie w monitorowaniu i prognozowaniu zmian klimatycznych. AI potrafi analizować ogromne ilości danych z satelitów, sensorów i stacji pogodowych, pomagając naukowcom lepiej rozumieć zjawiska takie jak topnienie lodowców, wzorce deszczu czy poziomy zanieczyszczenia powietrza. Co więcej, technologia ta jest stosowana do optymalizacji zużycia energii w miastach i zarządzania zasobami naturalnymi w sposób bardziej zrównoważony. Fascynuje mnie, jak AI może przyczynić się do globalnej walki z kryzysem klimatycznym, dostarczając narzędzi, które umożliwiają podejmowanie lepszych decyzji mających zresztą kluczowe znaczenie dla przyszłości naszej planety.

Nie czuje Pani niedosytu związanego z AI? Rewolucja, przełom, nowy rozdział w historii ludzkości – tym miała być. Sztuczna inteligencja miała nam pomóc w rozwiązaniu globalnych wyzwań i poradzeniu sobie z klimatycznym kryzysem czy chorobami. A tymczasem, wciąż w większości przypadków rozmawiamy o niej w kontekście ekonomicznym i zabierania pracy ludziom.

Zgadza się, istnieje pewien niedosyt związany z obecnym wykorzystaniem sztucznej inteligencji. Choć technologia ta rzeczywiście miała potencjał do zmieniania świata na lepsze, przynosząc rozwiązania dla palących problemów, takich jak zmiany klimatyczne czy globalne zdrowie, często wydaje się, że jej aplikacje skupiają się bardziej na optymalizacji kosztów i efektywności w sferze biznesowej. Jest to po części wynik presji rynkowej i dążenia do zysku, które kształtują kierunek rozwoju technologii. Jednakże, kluczowe jest, żebyśmy jako społeczeństwo, naukowcy, decydenci i liderzy technologiczni, stawiali etyczne i społeczne wykorzystanie AI na pierwszym miejscu w naszych priorytetach. To wymaga aktywnego dialogu między wszystkimi zainteresowanymi stronami oraz opracowywania polityk, które będą promować odpowiedzialne i inkluzywne podejście do rozwoju AI.

Podczas tegorocznego World Economic Forum był panel dotyczący sztucznej inteligencji. Zasiadły w nim trzy osobistości – Cansu Canca, Cyrus Hodes oraz Pascale Fung. Hodes, jako przedsiębiorca, zachęcał, by śmielej stosować AI do rozwiązywania problemów ludzkości. Fung, jako twórca rozwiązań AI Hong Kong University of Science and Technology, domagała się większych restrykcji odnośnie sztucznej inteligencji i „ujarzmienia” tej technologii. W którym obozie znalazłaby się Aleksandra Przegalińska?

Wiem, że to najgorsza odpowiedź – ale dokładnie po środku. Żadnych radykalizmów. Z jednej strony, uważam, że sztuczna inteligencja posiada ogromny potencjał do przyczyniania się do rozwiązywania kluczowych problemów ludzkości, takich jak kryzys klimatyczny, zdrowie publiczne czy nierówności. Zachęcam do odważnego, ale odpowiedzialnego wykorzystania AI w tych obszarach.

O czym – w Pani mniemaniu – za mało mówi się w kontekście AI?

Na pewno nie można ignorować kwestii związanych z przyszłością pracy. AI zmienia rynek pracy nie tylko poprzez automatyzację, ale także przez kreowanie nowych zawodów, co wymaga od społeczeństw przemyślanej adaptacji edukacyjnej i zawodowej. Zmiana ta może wpływać na nierówności społeczne, zwiększając dystans między tymi, którzy posiadają umiejętności adaptacji do nowych realiów, a tymi, którzy zostają za nimi w tyle.

Innym rzadko poruszanym tematem jest wpływ AI na zdrowie psychiczne. Coraz częstsze interakcje z maszynami, które naśladują ludzkie zachowania, mogą mieć nieprzewidziane konsekwencje dla ludzkiej psychiki, zwłaszcza jeśli zaczną zastępować realne interakcje międzyludzkie.

Najgorszy scenariusz, jaki Pani przewiduje w związku z rozwojem AI i brakiem odpowiednich regulacji prawnych dotyczących sztucznej inteligencji to…?

Opowiem może o dwóch rzeczach, które martwią mnie najbardziej i których przejawy już niestety widać, albo w określonych częściach świata, albo w realnych zastosowaniach podczas konfliktów i wojen. Jednym z nich jest możliwość, że AI zostanie wykorzystana do masowej inwigilacji i kontroli społecznej, gdzie decyzje dotyczące życia ludzkiego będą podejmowane automatycznie przez algorytmy, które mogą być stronnicze lub oparte na błędnych danych. Brak regulacji może prowadzić do sytuacji, w której sztuczna inteligencja jest wykorzystywana w sposób nieetyczny, na przykład w produkcji całkowicie autonomicznej broni. Jestem absolutna przeciwniczka autonomous weapons ze względów moralnych, a boję się, ze będzie jej właśnie coraz więcej.

Konferencja Infoshare 2024 – festiwal społeczności napędzanej technologią!

Infoshare 2024 – największa konferencja technologiczna w CEE, łącząca najnowsze rozwiązania technologiczne z biznesem. Wydarzenie odbędzie się w dniach 22-23 maja w Gdańsku. Co roku biorą w nim udział tysiące uczestników, w tym startupy, inwestorzy, przedstawiciele korporacji, programiści i marketerzy. Tegoroczna edycja to 8 scen tematycznych, kilkuset czołowych prelegentów z całego świata, innowacyjne firmy i rozwiązania prezentowane w strefie Expo, a także aż 6 imprez towarzyszących, będących okazją do biznesowego networkingu. Podczas Infoshare 2024 poznamy również zwycięzców Startup Contest, na których czeka 30 tys. euro w gotówce i udział w InCredibles – programie akceleracyjnym Sebastiana Kulczyka.

Kup bilet już dziś!

prof. Akademii Leona Koźmińskiego dr hab Aleksandra Przegalińska-Skierkowska – filozofka, badaczka rozwoju nowych technologii, zwłaszcza technologii zielonej i zrównoważonej, humanoidalnej sztucznej inteligencji, robotów społecznych i technologii ubieralnych. Stopień doktora nauk humanistycznych w dyscyplinie filozofia uzyskała w 2014 roku w Instytucie Filozofii Uniwersytetu Warszawskiego. Absolwentka The New School for Social Research w Nowym Jorku, gdzie uczestniczyła w badaniach dotyczących tożsamości w rzeczywistości wirtualnej, ze szczególnym uwzględnieniem Second Life.

Nagrody:

  • 2020 – Nagroda Hortensja dla najlepszych mówców i popularyzatorów nauki
  • 2020 – Nagroda Rzeczpospolitej Cyfrowej
  • 2019 – Wyróżnienie Digital Champions dla Osobowości Cyfrowej
  • 2018 – Digital Shapers w kategorii edukacja, Fundacja Digital Poland
  • 2014 – Stypendium Fundacji Kościuszkowskiej
  • 2010 – Stypendium START Fundacji na rzecz Nauki Polskiej
  • 2007 – Stypendium naukowe Williama J. Fulbrighta

Inne osiągnięcia:

  • 2015 – Stypendium dla Wybitnych Młodych Naukowców
  • 2014 – Stypendium Fundacji Kościuszkowskiej
  • Wykłady i cykle wykładów gościnnych:
  • 2019 – ESCP Europe, Berlin, Niemcy
  • 2018, 2019 – Harvard University, USA
  • 2017 – St. Gallen University, Szwajcaria
  • 2015, 2016 – Kazakh State Academy of Architecture and Civil Eng, Kazakhstan
  • 2014 – Columbia University, USA

Funkcje zaufania publicznego:

  • 2018 – 2019 – Konsultantka i ekspert przy Parlamencie Europejskim w zakresie przyszłych regulacji dotyczących sztucznej inteligencji, członek European AI Alliance
  • 2019 – Zespół ekspertów ds. Strategii dla wdrażania sztucznej inteligencji w Polsce przy MNiSW