AI Literacy – nowy must-have w edukacji. Czy uczelnie nadążają za zmianami?

Dodane:

Maja Zdrojewska Maja Zdrojewska

AI Literacy – nowy must-have w edukacji. Czy uczelnie nadążają za zmianami?

Udostępnij:

W grudniu 2024 zakończono konsultacje projektu ustawy wdrażającej Akt o AI. Po analizie zgłoszonych uwag (według Ministerstwa Cyfryzacji było ich ponad 2000), nowa wersja projektu znajdzie się na stronach Rządowego Centrum Legislacji. Elementy Aktu o AI mają zostać wprowadzone stopniowo,  a pierwsze regulacje wejdą w życie już w lutym 2025 r. Chodzi o przepisy dotyczące systemów zakazanych oraz obowiązek AI Literacy. Jak do tych zmian przygotowują się uczelnie?

AI Literacy – czym jest i kogo dotyczy?

AI Literacy to zestaw kompetencji niezbędnych do tego, aby korzystać ze sztucznej inteligencji w sposób odpowiedzialny i przede wszystkim – zgodny z prawem. Jest to również obowiązek po stronie dostawców usług AI lub podmiotów, które je stosują. Obydwie te grupy powinny zadbać o to, by ich pracownicy mieli odpowiednią wiedzę techniczną, uwzględniającą kontekst stosowania przez nich systemów AI.

Kwestie związane z bezpieczeństwem

Uczelnie, zarówno krajowe, jak i zagraniczne, edukują w zakresie rozsądnego wykorzystywania możliwości sztucznej inteligencji.

Nadużywanie AI może negatywnie wpływać na wiarygodność informacji oraz utrudnić ich weryfikację. Co więcej, wyszukiwarki AI mają tendencje do halucynacji – nawet jeśli nie potrafią odpowiedzieć na zadane pytanie, tworzą odpowiedzi, które mogą być nieprawdziwe. Nie zawsze jest też do końca jasne, jakie konkretnie zasoby wykorzystuje AI w wygenerowanych odpowiedziach.

Ponadto wyszukiwarki AI mają swoje reguły zbierania i wykorzystywania danych. Co do zasady, najczęściej służą one ulepszaniu usługi oraz technologii uczenia maszynowego. Oznacza to, że choć jesteśmy beneficjentami coraz sprawniej działającej technologii, jednocześnie tracimy w tej relacji kontrolę nad własną treścią. Wszystko, co wpiszemy w wyszukiwarce AI osadzonej na zewnętrznych serwerach, przestaje być informacją wewnętrzną firmy lub własnością intelektualną uczelni. Sami dostawcy AI zwracają na to uwagę i przestrzegają, aby nie dzielić się informacjami poufnymi, np. danymi osobowymi, niepublicznymi raportami czy notatkami ze spotkań.

Jak uczelnie podchodzą do AI?

Działania popularyzacyjne uczelni skierowane są głównie do studentów oraz kadry akademickiej. Stosowanie AI w formie bezrefleksyjnego kopiowania stworzonych w pośpiechu promptów obniża jakość pracy. Jednocześnie wiele uczelni zdaje sobie sprawę, że całkowity zakaz stosowania narzędzi sztucznej inteligencji jest bezcelowy. Z tego powodu starają się one edukować oraz podpowiadać, jak korzystać z dobrodziejstw sztucznej inteligencji w sposób etyczny.

Uczelnie edukują w tematach AI poprzez różnorodne mechanizmy. Poza standardową formą w postaci szkoleń, webinarów czy konferencji, opracowywane są oficjalne rekomendacje i wytyczne. Porównując wytyczne między uczelniami, można zauważyć, że zgadzają się w kwestii ochrony prywatności oraz etyki (wskazywanie co i w jakim stopniu zostało stworzone przy pomocy AI). Inaczej podchodzą do korzystania z dostępnych zasobów.

Przykładowo Uniwersytet Aalto w Finlandii udostępnia swoim pracownikom własnego asystenta AI. Asystent działa na silniku OpenAI i wspiera pracowników w codziennych zadaniach. Jest to narzędzie wewnętrzne, co eliminuje ryzyko wykorzystania danych przez osoby nieuprawnione. Na podobne rozwiązanie zdecydowała się również niemiecka uczelnia RWTH Aachen.

Politechnika Warszawska

Z kolei na polskim gruncie warto zwrócić uwagę na działania społeczności akademickich. Takim przykładem jest Zespół ds. eksploracji i eksploatacji możliwości sztucznej inteligencji Politechniki Warszawskiej, którego członkowie w ramach diagnozy możliwości wykorzystują modele generatywne do poprawy funkcjonowania uczelni. Wybranej grupie pracowników i studentów przyznano dostęp do narzędzi takich jak ChatGPT-4o, HeyGen, Elicit, Perplexity oraz Canva na 12 miesięcy. Efektywność pracy uczestników eksperymentu zostanie poddana systematycznej analizie, aby ocenić wpływ narzędzi generatywnych na jakość i wydajność realizowanych zadań. Grupy pasjonatów AI na PW tworzą swego rodzaju społeczność dzielącą się między sobą dobrymi praktykami np. związanymi z popularyzowaniem wyników projektów badawczych poprzez krótkie filmy wideo generowane przez AI oraz zastosowaniem narzędzi MidJourney czy NotebookLM w codziennej pracy dydaktycznej.

Akademia Leona Koźmińskiego proponuje wykładowcom różne metody wprowadzania narzędzi AI do toku nauczania. Rozwiązywanie zadań z pomocą sztucznej inteligencji w warunkach kontrolowanych przez uczelnię umożliwia studentom nabycie umiejętności krytycznego myślenia. Z kolei Uniwersytet Adama Mickiewicza w Poznaniu opublikował rekomendacje z zakresu wykorzystania AI w pracy naukowej. Uczelnia nie traktuje tych narzędzi jako „drogi na skróty”. Podkreśla, że użyte odpowiedzialnie mogą zwiększyć efektywność i atrakcyjność procesu edukacji.

Ogromny potencjał

Analiza różnorodnych praktyk uczelni krajowych i zagranicznych pokazuje, jak duży wpływ na edukację i samych edukatorów mają nowoczesne technologie. Potrzebna jest mądra regulacja prawna, która wspiera rozwój, ale też chroni przed jego potencjalnymi nadużyciami. Mimo to Akt o AI wzbudza kontrowersje. Pojawiają się obawy, że jego regulacje spowolnią rozwój innowacyjności. Niektórzy mówią o zbędnym obciążeniu administracyjnym. Z kolei inni nazywają Akt o AI „koniecznym kompromisem”. Praktyka pokaże, czy wdrożenie do polskiego prawa tych regulacji doda uczelniom odwagi w szerszym wykorzystywaniu zasobów sztucznej inteligencji i udostępnianiu ich zarówno studentom, jak i pracownikom szkół wyższych.