Specjalizacją naszej rozmówczyni są prawa własności intelektualnej oraz copyright. Z Microsoftem związana jest już od 2000 roku, co, jak sama podkreśla, czyni ją jedną z firmowych weteranek. To właśnie z powodu jej niebagatelnego doświadczenia powierzono jej tak obszerny temat jak odpowiedzialne wykorzystanie sztucznej inteligencji.
Traktować AI jako całościowy koncept
Pierwszą obserwacją, jaką dzieli się z nami Laitinen jest ta, że do sztucznej inteligencji należy podchodzić holistycznie. To koncept, którego celem jest naśladowanie człowieka. Tyle że ten proces musi być procesem etycznym. I to jest właśnie clou odpowiedzialnego stosowania AI. Nie może być tak, że to maszyny same będą decydować, co robić i jak kształtować interakcje z nami. Decydujący musi być czynnik ludzki.
Laitinen podkreśla, że niezbędne są testy modeli sztucznej inteligencji. Po to, aby technologia traktowała wszystkich jednakowo, podchodziła do użytkowników bez uprzedzeń, konieczne jest stałe testowanie jej działania. Do testów potrzebne są dane – a te z kolei muszą być jak najbardziej obiektywne, aby wyniki testów były miarodajne.
Czy globalna kontrola AI jest możliwa?
Nasza rozmówczyni zwraca uwagę, że kluczowe dla odpowiedzialnego funkcjonowania AI są dwie zasady: prywatność i bezpieczeństwo. Nasze informacje oraz informacje o nas muszą pozostać zarówno prywatne, jak i zabezpieczone. Ponadto, użytkownicy AI muszą mieć świadomość, że w danym momencie mają do czynienia z technologią, a nie z żywym człowiekiem. Ta świadomość powinna rozciągać się także na inne obszary: ludzie powinni być poinformowani, jakie są możliwości danej technologii, jakie są jej ograniczenia oraz do czego można ją stosować.
Marja Laitinen powiedziała nam, że za błędy maszyny zawsze odpowiada człowiek. I to właśnie z tego powodu AI musi być kontrolowana przez zestaw prawnych regulacji i norm. Globalne, uniwersalne standardy oraz regulacje są niezbędne jako hamulce: jeśli kiedyś coś pójdzie nie tak z AI, wszyscy musimy wiedzieć, jak postępować. Na szczęście, mimo że AI jest czymś nowym, to tworząc takie regulacje nie zawsze musimy zaczynać od nowa. Można skorzystać z intelektualnego wkładu od instytucji, które tym tematem zajmowały się już wcześniej.
Więcej dowiecie się z naszej rozmowy, którą przeprowadziliśmy z Marją Laitinen podczas Infoshare 2024 w naszym studiu.
Czytaj także:
- ChatGPT promuje fałszywy przekaz o Holokauście, Google Bard generuje zmyślone cytaty świadków Zagłady: GenAI zagraża historycznej pamięci
- Standardy etyczne dla AI mają służyć kierowaniu ludzkim zachowaniem – Steve Nouri (AI4Diversity)
- Autokorekta AI? Relatywnie szybko, problemy już pęcznieją – wywiad z Aleksandrą Przegalińską-Skierkowską