Okazuje się, że populacje agentów AI, takich jak ChatGPT, mogą samodzielnie rozwijać wspólne konwencje społeczne poprzez interakcje, bez ingerencji człowieka .
AI jako społeczne byty
Tradycyjnie badania nad dużymi modelami językowymi (LLM) koncentrowały się na ich indywidualnych zdolnościach. Jednak w rzeczywistym świecie systemy AI coraz częściej działają w grupach. W omawianym badaniu, grupy od 24 do 100 agentów AI były parowane losowo i proszone o wybranie wspólnej „nazwy” z zestawu opcji. Nagrody były przyznawane za zgodność wyborów, a kary za rozbieżności. Mimo ograniczonej pamięci i braku świadomości większej grupy, agenci spontanicznie wypracowali spójne konwencje nazewnictwa, przypominające ewolucję języka w ludzkich społecznościach.
Powstawanie uprzedzeń i dynamika punktu krytycznego
Badacze zaobserwowali również, że wśród agentów AI mogą naturalnie formować się uprzedzenia społeczne, niezależnie od indywidualnych zachowań. W jednym z eksperymentów, małe grupy agentów były w stanie wpłynąć na całą populację, zmieniając przyjęte konwencje nazewnictwa. Zjawisko to przypomina dynamikę punktu krytycznego w ludzkich społeczeństwach, gdzie niewielka, ale zdeterminowana mniejszość może wywołać szybkie zmiany w zachowaniach grupowych.
Implikacje dla bezpieczeństwa i etyki AI
Profesor Andrea Baronchelli, współautor badania, podkreśla znaczenie tych odkryć dla przyszłości interakcji człowiek-AI. Zrozumienie, że AI potrafi nie tylko komunikować się, ale także negocjować, dostosowywać się i czasem nie zgadzać się w kwestii wspólnych zachowań, jest kluczowe dla kształtowania bezpiecznej i etycznej współpracy z tymi systemami.
To badanie otwiera nowe perspektywy w dziedzinie badań nad AI, sugerując, że przyszłe systemy sztucznej inteligencji będą nie tylko narzędziami, ale aktywnymi uczestnikami społecznych interakcji, zdolnymi do samodzielnego kształtowania norm i konwencji.