Standardy etyczne dla AI mają służyć kierowaniu ludzkim zachowaniem – Steve Nouri (AI4Diversity)

Dodane:

Przemysław Zieliński Przemysław Zieliński

Standardy etyczne dla AI mają służyć kierowaniu ludzkim zachowaniem – Steve Nouri (AI4Diversity)

Udostępnij:

Steve Nouri, uznawany za jednego z 10 największych światowych autorytetów w dziedzinie sztucznej inteligencji, dzieli się z nami swoimi spostrzeżeniami dotyczącymi standardów etycznych AI, największych przeciwników ograniczania sztucznej inteligencji oraz tego, czy warto zostawić bajkopisarstwo ChatowiGPT. Steve Nouri jest jednym z prelegentów tegorocznego Infoshare.

Twój ulubiony filozof, myśliciel, autorytet moralny to…

Fryderyk Nietzsche. Doceniam jego głębokie introspekcje na temat moralności i ludzkiego potencjału, które stanowią wyzwanie dla jednostek, aby osiągnąć wielkość wykraczającą poza normy społeczne.

A co powiedziałby twój autorytet, stając twarzą w twarz ze sztuczną inteligencją i wiedząc o jej ciemnych stronach?

Nietzsche mógłby postrzegać sztuczną inteligencję jako przejaw ludzkiej woli mocy, ostateczne narzędzie do przekraczania ludzkich ograniczeń. Prawdopodobnie byłby jednak krytyczny wobec tego, w jaki sposób może ona również wzmocnić społeczne konformizmy i zależności, wzywając nas do konfrontacji i opanowania tych technologii, a nie do podporządkowania się im.

W którym momencie swojej kariery zdecydowałeś, że nadszedł czas, aby zająć się etycznym wymiarem zastosowania sztucznej inteligencji?

Podczas studiów magisterskich, kiedy byłem świadkiem szybkiego postępu w możliwościach sztucznej inteligencji i ich rosnącej integracji z krytycznymi sektorami. Zdając sobie sprawę z głębokiego wpływu, jaki te technologie mogą mieć na społeczeństwo, poczułem odpowiedzialność za zapewnienie ich odpowiedzialnego rozwoju i wdrażania.

Garri Kasparow, wspominając swoje mecze z Deep Blue w 1996 i 1997 roku, napisał: „nie konkurujemy z maszynami, które tworzymy, ale z samymi sobą, ponieważ chcemy rzucić sobie wyzwanie na nowe sposoby”.

Wyzwanie, jakie stanowi sztuczna inteligencja, jest nie tylko technologiczne, ale także egzystencjalne i etyczne. Zmusza nas do ponownego zdefiniowania, co to znaczy być człowiekiem i jak mierzymy ludzkie osiągnięcia i kreatywność w erze inteligentnych maszyn.

Czy nie uważasz również, że tworząc standardy etyczne dla sztucznej inteligencji, w rzeczywistości odnosisz się do etyki ludzkiej?

Jak najbardziej. Ustanowienie standardów etycznych dla sztucznej inteligencji ma zasadniczo na celu kierowanie ludzkim zachowaniem i podejmowaniem decyzji. W standardach tych mniej chodzi o kontrolowanie technologii, a bardziej o zapewnienie, że twórcy i użytkownicy sztucznej inteligencji przestrzegają wartości, które przynoszą korzyści całemu społeczeństwu.

Kim są najzagorzalsi lobbyści sprzeciwiający się działaniom podejmowanym w obszarze regulacji AI?

Najbardziej znaczący opór często pochodzi od dużych firm technologicznych i interesariuszy, którzy mają żywotne interesy w nieuregulowanym wdrażaniu sztucznej inteligencji. Twierdzą oni, że surowe regulacje mogą stłumić innowacje i wzrost gospodarczy, stanowiąc wyzwanie dla zrównoważenia innowacji ze względami etycznymi.

Co ja – redaktor internetowego serwisu dla startupów – mogę zrobić, aby promować etyczne zastosowanie sztucznej inteligencji?

Możesz promować etyczną sztuczną inteligencję, podkreślając historie i przemyślane przywództwo w zakresie odpowiedzialnych praktyk sztucznej inteligencji, prezentując firmy, które priorytetowo traktują standardy etyczne, oraz wspierając publiczny dyskurs na temat społecznego wpływu sztucznej inteligencji. Edukowanie odbiorców zarówno o potencjale, jak i pułapkach sztucznej inteligencji może odegrać kluczową rolę w kształtowaniu opinii publicznej i polityki.

Czy chciałbyś, aby w dzieciństwie czytano Ci historie wygenerowane przez ChatGPT?

Nowość i potencjał edukacyjny historii generowanych przez sztuczną inteligencję są intrygujące, ale doceniłbym ich połączenie. Tradycyjne opowiadanie historii kultywuje osobistą więź i kreatywność, których treści generowane przez AI mogą nie w pełni odtworzyć, szczególnie w początkowych latach dzieciństwa.

Czy promowanie „kreacji” wśród dzieci – podobnie jak bajek lub książek o sztucznej inteligencji, prowadzenie entuzjastycznej narracji wśród najmłodszych na temat AI jest dobre?

Promowanie sztucznej inteligencji wśród dzieci poprzez bajki i treści edukacyjne jest korzystne zarówno pod względem etycznym, jak i edukacyjnym. Przygotowuje je na przyszłość, w której sztuczna inteligencja jest wszechobecna, ale kluczowe jest również zaszczepienie umiejętności krytycznego myślenia o tym, jak działa sztuczna inteligencja i jakie są jej konsekwencje.

Nie ma chińskiego odpowiednika Steve’a Nouri. W tym kraju nie ma inicjatywy takiej jak AI4Diversity.

Krytyka odzwierciedla prawdziwe napięcie między globalną konkurencyjnością a etycznym zarządzaniem. Uważam jednak, że włączenie etyki do rozwoju sztucznej inteligencji może prowadzić do bardziej zrównoważonych i powszechnie korzystnych wyników, a nie do wyścigu w dół pod względem standardów.

Czy warto wprowadzić ograniczenia dotyczące sposobu prezentacji sztucznej inteligencji?

Tak, podobnie jak w przypadku przepisów dotyczących reklamy alkoholu, ustanowienie wytycznych dotyczących sposobu prezentacji sztucznej inteligencji może pomóc w zapobieganiu nierealistycznym oczekiwaniom i błędnym przekonaniom na temat jej możliwości. Ważne jest, aby zapewnić, że prezentacja sztucznej inteligencji jest wyważona, dokładna i nie wpływa nadmiernie na opinię publiczną lub politykę.

Czy jesteś bardziej zaniepokojony tym, co sztuczna inteligencja już potrafi, czy tym, czego jeszcze nie potrafi?

Oba aspekty są niepokojące, ale na różne sposoby. To, co sztuczna inteligencja może już zrobić – na przykład wpływać na wybory lub automatyzować pracę – stwarza bezpośrednie wyzwania etyczne i społeczne, którymi należy się zająć. To, czego sztuczna inteligencja jeszcze nie potrafi, na przykład w pełni zrozumieć ludzkich emocji lub podejmować złożonych decyzji moralnych, również budzi obawy o jej przyszłe role i ograniczenia w społeczeństwie.

O tym, co w sztucznej inteligencji najciekawsze, najbardziej perspektywiczne – ale także i groźne, niebezpieczne, ryzykowne opowiada w wywiadzie dr hab. Aleksandra Przegalińska-Skierkowska, jedna z najbardziej cenionych polskich ekspertek od AI. Swoją wiedzą Aleksandra Przegalińska-Skierkowska podzieli się także podczas tegorocznego Infoshare, gdzie jest prelegentką.

Co poczułaby Pani, gdyby jutro obudziła się Pani bez sztucznej inteligencji w jakiejkolwiek postaci?

Byłoby to niewątpliwie wyzwanie, ale także ciekawa okazja do refleksji nad tym, jak technologia wpływa na nasze życie. Z pewnością czułabym się trochę jak w podróży w czasie do przeszłości, gdzie wszystko robi się wolniej i wymaga więcej bezpośredniego zaangażowania, bo już bardzo przyzwyczaiłam się do AI. To mogłoby być inspirujące, skłaniając do głębszego zastanowienia się nad tym, jakie elementy mojej codzienności są naprawdę niezbędne, a co mogłabym robić inaczej.

Rozwój sztucznej inteligencji do tej pory przebiega – tak się przynajmniej zdaje – wzorcowo. Czy spodziewa się Pani momentu swoistej autokorekty, a co za tym idzie – kryzysu, zastoju w tym rozwoju?

Rozwój sztucznej inteligencji jest rzeczywiście imponujący i raptowny, ale tak jak każda technologia, może osiągnąć punkt, w którym potrzebna będzie autokorekta. Zakładam, ze ona nastąpi relatywnie szybko, bo pęcznieją już problemy związane chociażby z własnością intelektualną. Przyszłe wyzwania, takie jak kwestie etyczne czy nierówności społeczne, mogą wymagać od nas refleksji nad kierunkiem, w którym prowadzimy rozwój AI. Ale dla mnie autokorekta nie musi wcale oznaczać kryzysu, lecz jest często zdrowym mechanizmem zapewniającym zrównoważony i odpowiedzialny rozwój, skupiający się na długoterminowych korzyściach dla społeczeństwa.

Nassim Taleb w „Antykruchości” zwraca przede wszystkim uwagę na to, że ludzie, instytucje, idee nabierają odporności wskutek uszkodzeń, kryzysów, popełnianych błędów. Pod warunkiem, że mamy nad nimi kontrolę, korygujemy je i z takich przygód wychodzimy wzmocnieni. Czy sztuczna inteligencja jest zdolna do takiej autoregulacji i usprawniania się?

Odnosząc koncepcje Taleba do sztucznej inteligencji, można stwierdzić, AI ma potencjał do pewnego stopnia autoregulacji, a może raczej samo-optymalizacji, głównie poprzez uczenie maszynowe, gdzie systemy mogą poprawiać swoje działanie na podstawie analizy zgromadzonych danych i wyników swoich poprzednich działań. Jednak pełna autoregulacja, która obejmuje zdolność do kompleksowego rozpoznania i poprawiania własnych błędów, jest bardziej skomplikowana. Obecne modele AI są ograniczone do ram zaprogramowanych przez ludzi i często wymagają ludzkiej interwencji do rekalibracji lub dostosowania algorytmów w odpowiedzi na nieprzewidziane sytuacje lub błędy.

Dalsze badania w dziedzinie sztucznej inteligencji koncentrują się na rozwoju bardziej zaawansowanych systemów, które byłyby zdolne do bardziej autonomicznej adaptacji i nauki, co zbliżyło je do idei antykruchości Taleba. Mowa tutaj chociażby o rozumieniu praw fizyki czy myśleniu przyczynowo-skutkowym.

Wiele mówi się o tym, że sztuczna inteligencja ma pomóc pracownikom, uczynić ich życie łatwiejszym. Ale czy nie jest to ułuda, kreowana przez szefów globalnych korporacji, którzy w ten sposób prowadzą narrację o AI, a jednocześnie wykorzystują ją do zwiększania produktywności i zmniejszenia płaconych podatków?

Rzeczywiście, postrzeganie sztucznej inteligencji jako narzędzia wspomagającego pracowników może być czasami idealistycznym ujęciem, które nie do końca odzwierciedla rzeczywistość. Chociaż AI ma potencjał do znacznego ułatwienia pracy, poprzez automatyzację rutynowych i czasochłonnych zadań, a także wsparcie zadań kreatywnych, jest to również narzędzie, które może być wykorzystywane przez korporacje do zwiększania produktywności i optymalizacji kosztów, w tym poprzez redukcję zatrudnienia. Obyśmy tego widzieli jak najmniej. My jako zespół badawczy z Akademii Leona Koźmińskiego mocno promujemy podejście współpracującej sztucznej inteligencji (collaborative AI), które ma wymiar normatywny: ma nie wypierać, lecz wspierać pracowników, dając szansę nie tylko na lepsze wyniki, ale i większy dobrostan. Promujemy to także w projekcie Campus AI, w którym uczymy podstaw generatywnej sztucznej inteligencji jako narzędzia w pracy zawodowej. Wierzę, że przynajmniej część korporacji wdroży właśnie takie podejście jako dobry benchmark.

Inny zarzut wobec AI, ale również zahaczający o kwestię elitarności, dotyczy tego, że treści dostarczane przez ChatGPT lub inne modele językowe mogą zawierać błędy. Ale będą to błędy, które wychwycą jedynie eksperci, znawcy tematu, pasjonaci, naukowcy.

Zgadza się, istnieje ryzyko związane z błędami generowanymi przez AI, takie jak ChatGPT, które mogą nie być zauważalne dla większości użytkowników, ale są widoczne dla ekspertów. Jeśli użytkownicy zbytnio zaufają wynikom dostarczanym przez AI, mogą nie kwestionować ich prawdziwości, co jest szczególnie ryzykowne w dziedzinach wymagających dokładności, jak medycyna czy nauka. Takie sytuacje mogą prowadzić do rozprzestrzeniania się nieprecyzyjnych informacji, które mogą być traktowane jako wiarygodne przez osoby nieposiadające odpowiedniej wiedzy specjalistycznej. W odpowiedzi na to wyzwanie ważna jest rola edukacji na temat AI oraz regulacji, które pomagają zapewnić, że ograniczenia systemów AI są transparentne i zrozumiałe dla użytkowników. Ponadto, kluczowa jest odpowiedzialna rozbudowa AI, z uwzględnieniem współpracy między różnymi grupami specjalistów, aby zminimalizować ryzyko błędów i ich potencjalnie negatywny wpływ.

Jest Pani kobietą nauki. Poświęciła Pani ogrom czasu na zdobycie wykształcenia. Musiała Pani sięgać po wiele źródeł wiedzy, konfrontować się z najprzeróżniejszymi opiniami. Mieć otwartą głowę i być gotową na naukę kolejnych faktów. Tymczasem, modele językowe – czy to ChatGPT, czy to nasz rodzimy Bielik – uczą się z zamkniętego obiegu informacji, z internetu. Czy dla Pani idea tego procesu nie jest zaprzeczeniem terminu „nauka”, „edukacja”?

Modele językowe uczą się z ogromnych zbiorów danych z internetu, co stanowi zasadniczą różnicę w porównaniu do tradycyjnych metod zdobywania wiedzy, opartych na różnorodnych źródłach i bezpośrednim kontakcie z nauczycielami oraz ekspertami. Chociaż proces ten można uznać za pewną formę nauki, to znacznie różni się od ludzkiego modelu edukacji, który obejmuje dyskusje, eksperymenty oraz rozwijanie umiejętności krytycznego myślenia i adaptacji. Modele te zatem, mimo że skutecznie gromadzą i odtwarzają informacje, nie posiadają zdolności do głębszego zrozumienia czy samodzielnej krytycznej analizy. Dlatego, mimo ich niezaprzeczalnej użyteczności w pewnych aspektach edukacyjnych, takich jak dostarczanie informacji czy wsparcie w nauce języków, nie mogą one zastąpić pełnej gamy ludzkich doświadczeń edukacyjnych i intelektualnych. To podkreśla, że technologia powinna być traktowana jako narzędzie wspierające rozwój ludzki, a nie jako jego substytut.

Jest Pani znakomicie obeznana z zastosowaniem sztucznej inteligencji. Które z nich najbardziej Panią zaskoczyło?

Jednym z zastosowań sztucznej inteligencji, które zaskoczyło mnie najbardziej, jest jej wykorzystanie w ochronie środowiska, szczególnie w monitorowaniu i prognozowaniu zmian klimatycznych. AI potrafi analizować ogromne ilości danych z satelitów, sensorów i stacji pogodowych, pomagając naukowcom lepiej rozumieć zjawiska takie jak topnienie lodowców, wzorce deszczu czy poziomy zanieczyszczenia powietrza. Co więcej, technologia ta jest stosowana do optymalizacji zużycia energii w miastach i zarządzania zasobami naturalnymi w sposób bardziej zrównoważony. Fascynuje mnie, jak AI może przyczynić się do globalnej walki z kryzysem klimatycznym, dostarczając narzędzi, które umożliwiają podejmowanie lepszych decyzji mających zresztą kluczowe znaczenie dla przyszłości naszej planety.

Nie czuje Pani niedosytu związanego z AI? Rewolucja, przełom, nowy rozdział w historii ludzkości – tym miała być. Sztuczna inteligencja miała nam pomóc w rozwiązaniu globalnych wyzwań i poradzeniu sobie z klimatycznym kryzysem czy chorobami. A tymczasem, wciąż w większości przypadków rozmawiamy o niej w kontekście ekonomicznym i zabierania pracy ludziom.

Zgadza się, istnieje pewien niedosyt związany z obecnym wykorzystaniem sztucznej inteligencji. Choć technologia ta rzeczywiście miała potencjał do zmieniania świata na lepsze, przynosząc rozwiązania dla palących problemów, takich jak zmiany klimatyczne czy globalne zdrowie, często wydaje się, że jej aplikacje skupiają się bardziej na optymalizacji kosztów i efektywności w sferze biznesowej. Jest to po części wynik presji rynkowej i dążenia do zysku, które kształtują kierunek rozwoju technologii. Jednakże, kluczowe jest, żebyśmy jako społeczeństwo, naukowcy, decydenci i liderzy technologiczni, stawiali etyczne i społeczne wykorzystanie AI na pierwszym miejscu w naszych priorytetach. To wymaga aktywnego dialogu między wszystkimi zainteresowanymi stronami oraz opracowywania polityk, które będą promować odpowiedzialne i inkluzywne podejście do rozwoju AI.

Podczas tegorocznego World Economic Forum był panel dotyczący sztucznej inteligencji. Zasiadły w nim trzy osobistości – Cansu Canca, Cyrus Hodes oraz Pascale Fung. Hodes, jako przedsiębiorca, zachęcał, by śmielej stosować AI do rozwiązywania problemów ludzkości. Fung, jako twórca rozwiązań AI Hong Kong University of Science and Technology, domagała się większych restrykcji odnośnie sztucznej inteligencji i „ujarzmienia” tej technologii. W którym obozie znalazłaby się Aleksandra Przegalińska?

Wiem, że to najgorsza odpowiedź – ale dokładnie po środku. Żadnych radykalizmów. Z jednej strony, uważam, że sztuczna inteligencja posiada ogromny potencjał do przyczyniania się do rozwiązywania kluczowych problemów ludzkości, takich jak kryzys klimatyczny, zdrowie publiczne czy nierówności. Zachęcam do odważnego, ale odpowiedzialnego wykorzystania AI w tych obszarach.

O czym – w Pani mniemaniu – za mało mówi się w kontekście AI?

Na pewno nie można ignorować kwestii związanych z przyszłością pracy. AI zmienia rynek pracy nie tylko poprzez automatyzację, ale także przez kreowanie nowych zawodów, co wymaga od społeczeństw przemyślanej adaptacji edukacyjnej i zawodowej. Zmiana ta może wpływać na nierówności społeczne, zwiększając dystans między tymi, którzy posiadają umiejętności adaptacji do nowych realiów, a tymi, którzy zostają za nimi w tyle.

Innym rzadko poruszanym tematem jest wpływ AI na zdrowie psychiczne. Coraz częstsze interakcje z maszynami, które naśladują ludzkie zachowania, mogą mieć nieprzewidziane konsekwencje dla ludzkiej psychiki, zwłaszcza jeśli zaczną zastępować realne interakcje międzyludzkie.

Najgorszy scenariusz, jaki Pani przewiduje w związku z rozwojem AI i brakiem odpowiednich regulacji prawnych dotyczących sztucznej inteligencji to…?

Opowiem może o dwóch rzeczach, które martwią mnie najbardziej i których przejawy już niestety widać, albo w określonych częściach świata, albo w realnych zastosowaniach podczas konfliktów i wojen. Jednym z nich jest możliwość, że AI zostanie wykorzystana do masowej inwigilacji i kontroli społecznej, gdzie decyzje dotyczące życia ludzkiego będą podejmowane automatycznie przez algorytmy, które mogą być stronnicze lub oparte na błędnych danych. Brak regulacji może prowadzić do sytuacji, w której sztuczna inteligencja jest wykorzystywana w sposób nieetyczny, na przykład w produkcji całkowicie autonomicznej broni. Jestem absolutna przeciwniczka autonomous weapons ze względów moralnych, a boję się, ze będzie jej właśnie coraz więcej.

Konferencja Infoshare 2024 – festiwal społeczności napędzanej technologią!

Infoshare 2024 – największa konferencja technologiczna w CEE, łącząca najnowsze rozwiązania technologiczne z biznesem. Wydarzenie odbędzie się w dniach 22-23 maja w Gdańsku. Co roku biorą w nim udział tysiące uczestników, w tym startupy, inwestorzy, przedstawiciele korporacji, programiści i marketerzy. Tegoroczna edycja to 8 scen tematycznych, kilkuset czołowych prelegentów z całego świata, innowacyjne firmy i rozwiązania prezentowane w strefie Expo, a także aż 6 imprez towarzyszących, będących okazją do biznesowego networkingu. Podczas Infoshare 2024 poznamy również zwycięzców Startup Contest, na których czeka 30 tys. euro w gotówce i udział w InCredibles – programie akceleracyjnym Sebastiana Kulczyka.

Kup bilet już dziś!

Steve Nouri

Jest liderem w dziedzinie nauki o danych, który zmienił sposób, w jaki świat postrzegania sztucznej inteligencji. Często uznawany za jednego z 10 największych światowych autorytetów w dziedzinie sztucznej inteligencji i nauki o danych. Steve wywarł znaczący wpływ na tę dziedzinę.

Jako Australijski Profesjonalista ICT Roku, Steve jest poszukiwanym głównym mówcą, nauczycielem, i influencerem technologicznym, którego obserwuje ponad 1,5 miliona osób. Aktywnie uczestniczy w i współtworzy Forbes Technology Council, ACM, Harvard Business Review i wiele innych prestiżowych organizacji.

Jako założyciel AI4Diversity, Steve prowadzi globalną inicjatywę non-profit składającą się z ponad 10 000 oddanych wolontariuszy.  Inicjatywa ta ma na celu angażowanie i edukowanie różnych społeczności na temat sztucznej inteligencji i znaczenia odpowiedzialnego wdrażania sztucznej inteligencji.
Steve jest założycielem największej społeczności generatywnej sztucznej inteligencji na świecie i Gen AI Works platformy dla entuzjastów do nauki, odkrywania i rozwoju.

Czytaj także inne nasze wywiady z uczestnikami Infoshare 2024: