Exercitation ullamco laboris nis aliquip sed conseqrure dolorn repreh deris ptate velit ecepteur duis.
Exercitation ullamco laboris nis aliquip sed conseqrure dolorn repreh deris ptate velit ecepteur duis.
AI
Sztuczna inteligencja wspiera organy spółek, zmieniając sposób ich funkcjonowania oraz zarządzania ryzykiem i procesami biznesowymi. Staje się też narzędziem kontroli wewnętrznej: automatyzuje raportowanie, weryfikuje zgodność operacji z regulacjami i ułatwia identyfikację nieprawidłowości.
Jednakże sztuczna inteligencja nie podejmuje decyzji sama, a stanowi jedynie narzędzie w rękach organu spółki. Zdarza się, że na skutek zastosowania rozwiązania bazującego na technologii AI, nie wszystkie procesy przebiegają zgodnie z planem, a w efekcie spółka ponosi istotną szkodę. Wówczas pojawia się pytanie: kto i w jakim zakresie odpowiada za powstałą szkodę, gdy dochodzi do niewłaściwego wykorzystania sztucznej inteligencji w prowadzeniu spraw spółki? Zagadnienie zostanie przeanalizowane na przykładzie spółki z ograniczoną odpowiedzialnością, która pozostaje jedną z najczęściej wybieranych form działalności gospodarczej w Polsce.
Odpowiedź na to pytanie określa art. 293 § 1 kodeksu spółek handlowych:
Art. 293 [Zawinione czyny członków władz]
§ 1. Członek zarządu, rady nadzorczej, komisji rewizyjnej oraz likwidator odpowiada wobec spółki za szkodę wyrządzoną działaniem lub zaniechaniem sprzecznym z prawem lub postanowieniami umowy spółki, chyba że nie ponosi winy.
Szkoda w spółce może powstać w wyniku błędnych rekomendacji generowanych przez AI, które wpływają na codzienne zarządzanie i organizację pracy spółki. Zgodnie z art. 361 § 2 kodeksu cywilnego, do powstania szkody dochodzi w momencie poniesienia uszczerbku majątkowego lub niemajątkowego przez spółkę, przy czym konieczne jest wykazanie adekwatnego związku przyczynowo-skutkowego między działaniem lub zaniechaniem członka organu a powstałą szkodą spółki. Obejmuje ona zarówno poniesione straty, jak i utracone korzyści.
Przykładowo, niewłaściwe prognozy dotyczące alokacji zasobów mogą skutkować przestojami w produkcji lub nadmiernym zatrudnieniem w niekluczowych obszarach, błędna analiza danych finansowych może prowadzić do nieoptymalnego rozdzielania budżetu między projekty, a automatyczne systemy monitorujące zgodność operacji mogą przeoczyć ryzyka regulacyjne lub operacyjne. Takie błędy mogą powodować straty finansowe, spadek efektywności procesów wewnętrznych lub zagrożenie reputacji spółki.
Natomiast głównym źródłem ryzyka powiązanego z AI pozostaje wykorzystywanie modeli generatywnych, ich niedostosowanie do specyfiki działalności spółki oraz nieograniczone, niedoprecyzowane bazy danych, na których się opierają. Tego rodzaju narzędzia są szeroko dostępne, co sprzyja ich bezrefleksyjnemu wykorzystywaniu w działalności gospodarczej – bez uprzedniej analizy ograniczeń modelu, jakości danych czy adekwatności do konkretnego procesu biznesowego. Dodatkowym problemem jest zjawisko tzw. black box, czyli nieprzejrzystość mechanizmu działania systemu, która utrudnia ocenę, na jakiej podstawie wygenerowano określoną rekomendację. W efekcie decyzje podejmowane na podstawie niezweryfikowanego i niezrozumiałego outputu AI mogą prowadzić do działań sprzecznych z regulaminami organów, postanowieniami umowy spółki lub przepisami prawa, w tym w zakresie ochrony danych osobowych, narażając spółkę na roszczenia odszkodowawcze ze strony klientów i innych podmiotów. W efekcie nawet pojedynczy błąd w implementowaniu rozwiązań bazujących na AI lub wykorzystujących jej błędnych wyników może wywołać efekt domina, generując szkody w wielu obszarach działalności spółki i komplikując prowadzenie jej spraw.
Na wstępie należy podkreślić, że sztuczna inteligencja stojąca za mnogimi rozwiązaniami technologicznymi, nieważne, jak bardzo zaawansowaną postać przybiera, nie posiada zdolności prawnej. Oznacza to, że w świetle prawa nie można przypisać jej odpowiedzialności, a także nie może być adresatem roszczeń. Choć dostawca oprogramowania może ponosić odpowiedzialność za jego wadliwość, w kontekście analizowanego zagadnienia faktyczna odpowiedzialność za skutki korzystania z AI spoczywa na osobie pełniącej funkcję w organach spółki, która, zgodnie z art. 293 § 1 k.s.h. odpowiada wobec spółki za szkodę wyrządzoną działaniem lub zaniechaniem sprzecznym z prawem lub postanowieniami umowy spółki, chyba że wykaże brak swojej winy.
W kontekście art. 293 § 1 k.s.h. oraz wykorzystania sztucznej inteligencji, działaniem lub zaniechaniem sprzecznym z prawem lub postanowieniami umowy spółki będzie każde postępowanie członka organu spółki, które skutkuje szkodą, a które jest wynikiem nieuważnego, nierozważnego lub niezgodnego z obowiązującymi regulacjami użycia AI. Istotne jest to, że przepis określa odpowiedzialność za prowadzenie spraw spółki, przez które należy rozumieć całokształt czynności związanych z bieżącym zarządzaniem spółką oraz podejmowaniem decyzji dotyczących jej funkcjonowania. Obejmuje to zarówno czynności faktyczne, jak i prawne, podejmowane w sferze wewnętrznej działalności spółki, zmierzające do realizacji jej celu gospodarczego.
W odróżnieniu od innych działań typowo podejmowanych przez spółkę, takich jak zawieranie umów z kontrahentami, reprezentowanie spółki wobec osób trzecich czy wykonywanie codziennych czynności operacyjnych, prowadzenie spraw spółki wiąże się przede wszystkim z procesem decyzyjnym i odpowiedzialnością członków organów za skutki tych decyzji. Podczas gdy pozostałe działania mogą być wykonywane przez pracowników lub pełnomocników i nie zawsze obciążają indywidualną odpowiedzialnością członków organów, prowadzenie spraw spółki jest obszarem, w którym to właśnie organy spółki ponoszą odpowiedzialność za niewłaściwe zarządzanie, w tym np. niewłaściwe wykorzystanie narzędzi takich jak sztuczna inteligencja.
Odpowiedzialność przewidziana w art. 293 k.s.h. spoczywa na członkach organów spółki, takich jak zarząd, rada nadzorcza, komisja rewizyjna czy likwidator, a także, w ślad za doktryną, na osobach działających w ich imieniu jako pełnomocnicy lub prokurenci, o ile ich działania lub zaniechania wyrządzają szkodę spółce w sposób sprzeczny z prawem lub postanowieniami umowy spółki. Odpowiedzialność przed spółką oznacza, że członek zarządu, rady nadzorczej, komisji rewizyjnej lub likwidator odpowiada bezpośrednio wobec spółki za szkodę powstałą w wyniku swojego działania. W doktrynie przyjęło się, że przepis nie obejmuje natomiast pełnomocników powołanych uchwałą zgromadzenia wspólników, kuratorów ustanowionych w celu powołania organów spółki lub jej likwidacji, ani wspólników, w tym dominujących, nawet jeśli faktycznie przejmują zarządzanie spółką. Standard staranności jest jednolity i nie różnicuje członków organu w zależności od tego, czy pełnią funkcję organicznie, czy działają jako pełnomocnicy.
Odpowiedzialność cywilnoprawna przewidziana przez art. 293 k.s.h. oznacza obowiązek naprawienia szkody z własnego majątku, np. pokrycia strat, zapłaty kar administracyjnych obciążających spółkę czy wyrównania uszczerbku powstałego wskutek naruszenia obowiązków nadzorczych. Konsekwencją może być również odwołanie z funkcji, utrata zaufania wspólników oraz negatywne skutki reputacyjne wpływające na możliwość dalszego pełnienia funkcji w organach innych spółek.
Odpowiedzialność przed spółką to odpowiedzialność kontraktowa, wynikająca ze stosunku organizacyjnego łączącego członka organu ze spółką – jego fundamentem jest obowiązek sumiennego wykonywania mandatu, dbałości o interes spółki oraz przestrzegania prawa i umowy spółki. Zgodnie z orzecznictwem Sądu Najwyższego, art. 293 k.s.h. nie stanowi samodzielnej podstawy odpowiedzialności członków organów, lecz uzupełnia reżim odpowiedzialności kontraktowej określony w art. 471 i n. k.c. Oznacza to, że spółka musi wykazać powstanie szkody, niewykonanie lub nienależyte wykonanie stosunku organizacyjnego w wyniku naruszenia prawa lub umowy spółki oraz związek przyczynowy, natomiast członek władz może uwolnić się od odpowiedzialności dowodem braku winy.
Ponadto, art. 293 § 1 k.s.h. ma charakter ius cogens, co oznacza, że nie można go zmieniać ani ograniczać w umowie spółki, uchwale wspólników czy umowie z piastunem. Niedopuszczalne jest także obniżanie standardu staranności przewidzianego przepisem ustawy ani ograniczanie zakresu obowiązku odszkodowawczego.
Warto też podkreślić, że odpowiedzialność przed spółką jest niezależna od odpowiedzialności wobec osób trzecich. Jej celem jest ochrona samej spółki jako podmiotu gospodarczego, egzekucja roszczeń wymaga najczęściej uchwały wspólników, zgodnie z art. 228 pkt 2 k.s.h., a zakres i dopuszczalność takich roszczeń może zależeć od udzielenia absolutorium zgodnie z art. 231 § 2 pkt 3 k.s.h. Tym samym szkoda może być podstawą roszczenia wyłącznie przez spółkę, czyli podmiot, którego interesy zostały naruszone. Dodatkowo, art. 294 k.s.h. wprowadza odpowiedzialność solidarną – jeżeli kilka osób wspólnie wyrządziło spółce szkodę, każda z nich odpowiada wobec spółki za całość szkody.
Na skutek nowelizacji z 13 października 2022 r. uchylono art. 293 § 2 k.s.h., który wymagał od członków organów spółki staranności wynikającej z zawodowego charakteru ich działalności. Na jego miejsce wprowadzono § 3, który nadal zawiera określenie „obowiązku dołożenia staranności wynikającej z zawodowego charakteru swojej działalności”, natomiast rozwija brzmienie przepisu o tzw. business judgement rule. Członek zarządu, rady nadzorczej, komisji rewizyjnej i likwidator nie narusza obowiązku dołożenia staranności, jeśli postępuje w sposób lojalny wobec spółki i działa w granicach uzasadnionego ryzyka gospodarczego.
Wykorzystanie narzędzi opartych na sztucznej inteligencji w działalności spółki z o.o. nie prowadzi do powstania nowego, odrębnego reżimu odpowiedzialności, lecz aktualizuje klasyczne przesłanki odpowiedzialności członków organów określone w art. 293 k.s.h.
AI, jako narzędzie pozbawione podmiotowości prawnej, nie może ponosić odpowiedzialności za skutki swoich rekomendacji; odpowiedzialność ta pozostaje po stronie osób prowadzących sprawy spółki i sprawujących nad nią nadzór. Ryzyka związane z nieprzejrzystością algorytmów, niedostosowaniem modeli do specyfiki działalności, naruszeniami regulacyjnymi czy błędnym wykorzystaniem wygenerowanych treści mieszczą się w ramach oceny należytej staranności i uzasadnionego ryzyka gospodarczego. Kluczowe jest, aby każde wykorzystanie AI w działalności spółki z o.o. było świadome, udokumentowane i zgodne z przyjętymi procedurami, minimalizując ryzyko finansowe, prawne i reputacyjne.
