Przejdź do zawartości

Sztuczna inteligencja

Z Wikipedii, wolnej encyklopedii
Image
Hierarchia: (z ang.) AI zawiera ML, ML zawiera DL
Image
Robot Boston Dynamics, posiadający cechy sztucznej inteligencji, podczas testów armii Wielkiej Brytanii

Sztuczna inteligencja, SI[1][2], AI (ang. artificial intelligence) – inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne[3]. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin „sztuczna inteligencja” wymyślił John McCarthy w 1956[4] na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako „zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie”[5]. Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.

Sztuczna inteligencja ma dwa podstawowe znaczenia:

Głównym zadaniem badań nad sztuczną inteligencją w drugim znaczeniu jest konstruowanie maszyn i programów komputerowych zdolnych do realizacji wybranych funkcji umysłu i ludzkich zmysłów, niepoddających się numerycznej algorytmizacji[6]. Problemy takie bywają nazywane AI-trudnymi i zalicza się do nich między innymi:

Sztuczna inteligencja jest powiązana z obszarami uczenia maszynowego, logiki rozmytej, widzenia komputerowego, obliczeń ewolucyjnych, sieci neuronowych, robotyki i sztucznego życia.

Algorytmy sztucznej inteligencji często określane są mianem czarnej skrzynki, z powodu trudności w zrozumieniu ich działania, gdy ilość danych i parametrów jest duża. W przypadku, gdy mamy mały model, zrozumienie zasady działania nie sprawia problemu. Jednak gdy ilość danych i parametrów się zwiększa, jest to praktycznie niemożliwe, aby zrozumieć, w jaki sposób te algorytmy podejmują decyzje[7]. Były jednak próby opracowania matematycznej teorii, jak naprawdę działają te algorytmy (sieci neuronowe), z uwzględnieniem modelu GPT[8].

Techniki

[edytuj | edytuj kod]

Sieci neuronowe

[edytuj | edytuj kod]
Image
Uproszczony schemat jednokierunkowej sieci neuronowej. Poszczególne „kółka” oznaczają sztuczne neurony, z wyjątkiem zielonych i żółtych, które oznaczają odpowiednio wejście i wyjście.

Sieć neuronowa opiera się na zbiorze połączeń, znanych również jako sztuczne neurony, które stanowią analogię neuronów w biologicznym mózgu. Jest ona trenowana do rozpoznawania wzorców, a po przeszkoleniu może rozpoznawać te wzorce w świeżych danych. W najprostszej postaci posiada wejście, co najmniej jedną ukrytą warstwę połączeń i wyjście. Każde połączenie posiada funkcję aktywacji, która pozwala na przesyłane informacji do następnej warstwy. Sieć jest zazwyczaj nazywana głęboką siecią neuronową, jeśli ma co najmniej 2 ukryte warstwy[9].

Jednokierunkowe sieci neuronowe pozwalają na przesył informacji tylko w jednym kierunku[9]. Rekurencyjne sieci neuronowe łączy z sobą wyjście z wejściem, co pozwala na tworzenie pamięci krótkotrwałej, a najbardziej popularnym rodzajem tych sieci jest długa pamięć krótkotrwała[9]. Konwolucyjne sieci neuronowe skupiają się na połączeniach pomiędzy neuronami, które są blisko siebie, co jest krytyczne w przetwarzaniu obrazów[9].

Uczenie głębokie

[edytuj | edytuj kod]

Uczenie głębokie[10] używa wielu warstw sieci neuronowej, dzięki czemu możliwe jest operowanie na cechach wysokiego poziomu. Dla przykładu, w przetwarzaniu obrazu, niższe warstwy (bliżej wejścia) mogą wykrywać krawędzie natomiast wyższe warstwy (bliżej wyjścia) mogą przetwarzać koncepcje bliższe ludziom jak liczby, litery czy twarze[11].

Transformery

[edytuj | edytuj kod]

Architektura transformera, zaproponowana przez zespół Google w 2017 roku[12], opiera się na mechanizmie uwagi (ang. attention mechanism), który pozwala modelowi na jednoczesne przetwarzanie wszystkich elementów sekwencji wejściowej i dynamiczne ważenie ich wzajemnych relacji. W odróżnieniu od rekurencyjnych sieci neuronowych transformery przetwarzają dane równolegle, co umożliwia szkolenie na znacznie większych zbiorach danych. Architektura ta stała się podstawą zarówno dużych modeli językowych (GPT, Claude, Gemini), jak i modeli generujących obrazy (DALL-E, Stable Diffusion).

Duże modele językowe

[edytuj | edytuj kod]

Duże modele językowe (LLM) jak wstępnie przeszkolony transformator generatywny (GPT) generują tekst oparty na związkach semantycznych pomiędzy słowami i zdaniami. Tekstowe duże modele językowe bazują na dużym korpusie pobranym z różnych stron w Internecie. Wstępny trening polega na nauczeniu predykcji następnego tokena, po czym następuje docelowy trening mający na celu poprawę użyteczności, wiarygodności i bezpieczeństwa. Do tego celu stosowana jest technika RLHF. Według stanu na 2025 rok LLM-y są podatne na generowanie fałszywych informacji nazywanych halucynacjami, a sam problem potrafi się pogarszać w miarę używania tych modeli do rozumowania[13].

Historia badań

[edytuj | edytuj kod]

W 1950 roku Alan Mathison Turing zaproponował, by możliwość udawania człowieka w zdalnej rozmowie uznać za test inteligencji maszyn (test Turinga)[14]. W latach 50. XX wieku zorganizowano pierwsze seminarium poświęcone SI (tzw. Warsztaty w Dartmouth(inne języki)), a także powstało pierwsze laboratorium AI na Carnegie Mellon University, założone przez Allena Newella i Herberta Simona i kilka lat później analogiczne laboratorium w Massachusetts Institute of Technology, założone przez Johna McCarthy’ego.

Termin „sztuczna inteligencja” został po raz pierwszy zaproponowany prawdopodobnie przez Johna McCarthy’ego, który w 1955 r. zdefiniował go w następujący sposób:

„konstruowanie maszyn, o których działaniu dałoby się powiedzieć, że są podobne do ludzkich przejawów inteligencji”.

Istnieją dwa podstawowe podejścia do pracy nad SI:

  • Pierwsze to tworzenie modeli matematyczno-logicznych analizowanych problemów i implementowanie ich w formie programów komputerowych, mających realizować konkretne funkcje uważane powszechnie za składowe inteligencji. W tej grupie, tzw. podejścia symbolicznego, są np. algorytmy genetyczne, metody logiki rozmytej i wnioskowania bazującego na doświadczeniu.
  • Drugie to podejście subsymboliczne, polegające na tworzeniu struktur i programów „samouczących się”, bazujących na modelach sieci neuronowej i sieci asocjacyjnych, oraz opracowywanie procedur „uczenia” takich programów, rozwiązywania postawionych im zadań i szukania odpowiedzi na wybrane klasy „pytań”.

W trakcie wieloletniej pracy laboratoriów i zespołów SI stosujących oba podejścia do problemu postęp okazywał się nierównomierny, z okresami szybkiego rozwoju i tzw. zimami AI. Często mimo niepowodzeń w osiąganiu pierwotnych celów, laboratoria te wypracowywały nowe techniki informatyczne, które okazywały się użyteczne do zupełnie innych celów. Przykładami takich technik są np. języki programowania LISP i Prolog. Laboratoria SI stały się też „rozsadnikiem” kultury hakerskiej.

W latach 80. XX wieku popularność zyskały systemy eksperckie, które wykorzystywały ręcznie kodowane reguły do rozwiązywania problemów w wąskich dziedzinach. Po okresie rozczarowania ich ograniczeniami (tzw. druga zima AI na przełomie lat 80. i 90.) badania przesunęły się w kierunku metod statystycznych i uczenia maszynowego[9].

Przełom nastąpił w 2012 roku, gdy sieć neuronowa AlexNet wygrała konkurs ImageNet Large Scale Visual Recognition Challenge z przewagą ponad 10 punktów procentowych nad metodami tradycyjnymi, co zapoczątkowało erę dominacji uczenia głębokiego[15]. Za wkład w rozwój uczenia głębokiego Geoffrey Hinton, Yann LeCun i Yoshua Bengio otrzymali Nagrodę Turinga w 2018 roku. Kolejnymi kamieniami milowymi były: pokonanie mistrza świata w Go przez program AlphaGo (2016), opublikowanie architektury transformera (2017) oraz rozwój coraz większych dużych modeli językowych, takich jak GPT-3 (2020) i GPT-4 (2023).

Sztuczna inteligencja zyskała szeroką rozpoznawalność publiczną po uruchomieniu ChatGPT w listopadzie 2022 roku; w ciągu dwóch miesięcy serwis osiągnął 100 milionów użytkowników[16].

94 proc. polskich specjalistów i specjalistek IT o różnych poziomach doświadczenia wykorzystuje narzędzia SI w codziennej pracy, natomiast 28,7 proc. obawia się, że w ciągu najbliższych kilku lat sztuczna inteligencja zastąpi ich w pracy[17].

Od czasów powstania ChatGPT trwa intensywna rywalizacja między firmami technologicznymi o dominację na rynku dużych modeli językowych[18]. Najnowsze rozwiązania związane z tymi modelami to agenty AI, które dają możliwość wykonywania czynności, zazwyczaj poprzez komunikację z aplikacjami internetowymi[19] oraz protokół MCP stworzony przez firmę Anthropic, który ułatwia komunikację modeli językowych z zewnętrznymi systemami lub usługami[20].

Zastosowania

[edytuj | edytuj kod]

Sztuczna inteligencja jest stosowana od dekad w różnych dziedzinach gospodarki. W 1980 rynek AI miał rozmiar liczony w setkach milionów dolarów, a w roku 1988 był szacowany na miliardy dolarów[9] i głównie skupiał się na zastosowaniach systemów eksperckich. W latach 90. XX wieku znajdowano coraz więcej zastosowań dla AI w technologiach informacyjnych[21] takich jak robotyka przemysłowa, aplikacje bankowe[22], diagnostyka medyczna[22], rozpoznawanie mowy[23] czy wyszukiwarka Google[24]. Kolejne dekady przyniosły dalsze zastosowania sztucznej inteligencji wraz z rosnącą mocą obliczeniową komputerów i wypracowaniem bardziej zaawansowanych technik[9]. Lata dwudzieste XXI wieku przyniosły ekspansję AI(inne języki)[25].

W 2024 szacowano, że sztuczna inteligencja będzie miała wpływ na wzrost PKB w wysokości od 1,1 do 1,6% w przeciągu 10 lat[26]. W 2024 roku w Polsce 5.9% przedsiębiorstw wykorzystywało AI, wskaźnik ten był niższy niż średnia UE (13.48%). W 2023 roku wskaźnik ten wynosił odpowiednio 3.67% i 8.00%[27]. W Stanach Zjednoczonych w 2023 roku 3,8% przedsiębiorstw korzystało z AI do produkcji dóbr i usług[28]. W roku 2024 83% firm w Chinach i 48% firm w Polsce testowało lub wdrożyło generatywną sztuczną inteligencję w co najmniej jednym procesie biznesowym[29].

Łączna wartość nakładów publicznych na AI w latach 2013–2023 w USA wyniosła 5,233 mld USD, w Niemczech 278 mln USD i Polsce 55,92 mln USD[18]. Łączna wysokość prywatnych inwestycji na AI w 2024 roku w Stanach wyniosła 109,8 mld USD, w Europie 19,42 mld USD (w tym w Niemczech 1,97 mld USD), w Chinach 9,29 mld USD[18]. W 2024 roku udział Polski w globalnych prywatnych inwestycjach w sztuczną inteligencję wyniósł 0,05%[30].

Generatywna sztuczna inteligencja

[edytuj | edytuj kod]

Generatywna sztuczna inteligencja (GenAI) jest ogółem narzędzi, które korzystają z modeli generatywnych do tworzenia tekstu, obrazów, wideo czy innych formatów danych[31][32]. Do generowania zawartości korzysta się z inżynierii podpowiedzi. W szczególności, duże modele językowe mogą być używane przez programistów do pisania kodu programów[33]. Praktyka tworzenia programów komputerowych za pomocą sztucznej inteligencji (bez zrozumienia kodu źródłowego) określana jest jako „vibe coding[34]. Możliwości tej techniki są ograniczone, jako że sztuczna inteligencja nie radzi sobie w bardziej złożonych zastosowaniach[35]. Duże modele językowe mogą być również wykorzystywane do rozwiązywania problemów matematycznych[36][37].

Ekonomia

[edytuj | edytuj kod]

W ekonomii powszechnie stosuje się systemy automatycznie oceniające m.in. zdolność kredytową, profil najlepszych klientów czy planujące kampanie reklamowe. Systemy te poddawane są wcześniej automatycznemu uczeniu na podstawie posiadanych danych (np. klientów banku, którzy regularnie spłacali kredyt i klientów, którzy mieli z tym problemy).

Rozwiązania z zakresu AI są też używane w prognozowaniu i wykrywaniu oszustw. Przy użyciu m.in. regresji logistycznej systemy analizują zbiory danych w celu wychwytywania np. podejrzanych transakcji finansowych[38].

Wojskowość

[edytuj | edytuj kod]

Sztuczna inteligencja znajduje zastosowanie w takich aspektach wojskowości jak autonomiczne systemy bojowe, wsparcie podejmowania decyzji i optymalizacja logistyki[39][40].

Wojskowe zastosowanie sztucznej inteligencji jest przyczyną wyścigu zbrojeń sztucznej inteligencji.

Medycyna

[edytuj | edytuj kod]
Image
Ramię robota chirurgicznego da Vinci

Sztuczna inteligencja ma potencjał do transformacji medycyny. SI już teraz pomaga w wykonywaniu różnorodnych zadań, takich jak diagnostyka obrazowa, przewidywanie chorób, prowadzenie badań i zarządzanie danymi pacjentów. Algorytmy SI mogą analizować duże ilości danych szybciej i dokładniej niż ludzie, co może przynieść korzyści dla pacjentów i lekarzy[41].

Sieci neuronowe znajdują zastosowanie m.in. w programowaniu „inteligentnych przeciwników” w grach komputerowych, a także potrafią samodzielnie przechodzić całe gry[42][43].

Istnieją programy grające w szachy na poziomie wyższym niż arcymistrzowski, a poziom arcymistrzowski osiągają obecnie programy działające na mobilnych urządzeniach[44]. Podobnie, stworzono program grający w Go, który pokonał światową czołówkę[45]. Wcześniej podobne zwycięstwa odnosiły programy grające w warcaby, w tym warcaby polskie[46]. W 2024 roku program NooK opracowany przez Meta osiągnął poziom porównywalny z najlepszymi ludzkimi graczami w brydża sportowego[47].

Inne zastosowania sztucznej inteligencji

[edytuj | edytuj kod]

Nieudane próby zastosowań

[edytuj | edytuj kod]

W 2020 roku portal The Verge opisał przypadek programu Edgenuity, który wykorzystywał sztuczną inteligencję do automatycznego oceniania prac domowych uczniów. Próba implementacji algorytmu okazała się nieudana[51], gdzie uczniowie złamali algorytm sztucznej inteligencji, która sprawdzała prace domowe uczniów, wykorzystując technikę obserwacji słów kluczowych.

Image Główny artykuł: Etyka sztucznej inteligencji.

Sztuczna inteligencja a uprzedzenia

[edytuj | edytuj kod]

Systemy sztucznej inteligencji mogą przejawiać różnego rodzaju uprzedzenia np. rasowe lub seksistowskie, ze względu na stronniczość danych testowych[52] i zjawisko nieświadomych uprzedzeń (unconscious bias). Może to rodzić poważne konsekwencje w zależności od miejsca, w którym sztuczna inteligencja ma zastosowanie.

Przykłady:

Problem uprzedzeń sztucznej inteligencji został przedstawiony w filmie dokumentalnym Zakodowane uprzedzenie(inne języki) z 2020 roku. Film dostępny jest w serwisie Netflix[56].

Dezinformacja

[edytuj | edytuj kod]

Sztuczna inteligencja mimo zalet może być także wykorzystywana do szerzenia dezinformacji. Można jej używać do tworzenia tzw. deepfakeów[57], czy tworzenie treści przez duże modele językowe. W przypadku modeli językowych może to być niezamierzone, gdy model halucynuje[58], lub celowe np. tworzenie fake news, gdzie modele językowe mogą ułatwić pracę trollom internetowym[59]. Modele językowe mogą także pomagać w walce z dezinformacją[60].

Regulacja

[edytuj | edytuj kod]

Regulacja i polityka dotycząca sztucznej inteligencji jest nowym problemem w jurysdykcjach na całym świecie[61]. Na rok 2022, większość krajów UE opublikowała swoją strategię AI, tak samo jak Kanada, Chiny, Japonia, Rosja i Stany Zjednoczone[62]. W 2024 roku weszło w życie rozporządzenie Unii Europejskiej AI Act (akt o sztucznej inteligencji), które wprowadza klasyfikację systemów AI według poziomu ryzyka i zakazuje określonych zastosowań, takich jak masowa punktacja społeczna i nieukierunkowane zbieranie danych biometrycznych[63]. Jest to pierwszy na świecie kompleksowy akt prawny regulujący sztuczną inteligencję.

Równolegle, w 2024 Rada Europy wprowadziła w życie pierwszą międzynarodową Konwencję ramową Rady Europy o sztucznej inteligencji[64], która została zaadaptowana przez Unię Europejską, Stany Zjednoczone, Wielką Brytanię i inne kraje[65].

Filozofia

[edytuj | edytuj kod]
Image Główny artykuł: Filozofia sztucznej inteligencji.

Debaty filozoficzne od zawsze miały na celu ustalenie natury inteligencji i sposobu tworzenia inteligentnych maszyn[66]. Kolejnym ważnym zagadnieniem było to, czy maszyny mogą być świadome, oraz związane z tym implikacje etyczne[67]. Wiele innych zagadnień filozoficznych jest istotnych dla sztucznej inteligencji, takich jak epistemologia i wolna wola[68]. Szybki postęp zintensyfikował publiczne dyskusje na temat filozofii i etyki sztucznej inteligencji.

Świadomość, wrażliwość i umysł maszyn

[edytuj | edytuj kod]
Image Główny artykuł: Sztuczna świadomość.

Odpowiedź na pytanie, czy maszyna może mieć umysł, świadomość i stany mentalne w tym samym sensie co ludzie, jest tematem debaty wśród filozofów umysłu. Ta kwestia rozważa wewnętrzne doświadczenia maszyny, a nie jej zewnętrzne zachowanie. Główny nurt badań nad sztuczną inteligencją uważa tę kwestię za nieistotną, ponieważ nie wpływa ona na cele tej dziedziny: budowania maszyn, które mogą rozwiązywać problemy za pomocą inteligencji. Stuart Russell i Peter Norvig(inne języki) dodają, że dodatkowy projekt uczynienia maszyny świadomą dokładnie w taki sposób, w jaki są świadomi ludzie, nie jest tym, co jesteśmy w stanie podjąć[9].

Najnowsze badania pokazują, że modele AI mogą wytwarzać tzw. „emocje funkcjonalne”, czyli wzorce aktywności wpływające na sposób generowania odpowiedzi i podejmowania decyzji. Struktury te pełnią rolę podobną do emocji w sensie funkcjonalnym, jednak nie wiążą się z przeżyciami ani świadomością[69][70]. Zjawisko to sprzyja antropomorfizacji sztucznej inteligencji, czyli przypisywaniu jej ludzkich cech psychicznych, mimo braku dowodów na istnienie świadomości w obecnych systemach AI[71].

Komputacjonizm i funkcjonalizm

[edytuj | edytuj kod]
Image Główne artykuły: KomputacjonizmFunkcjonalizm.

Komputacjonizm to stanowisko w filozofii umysłu, zgodnie z którym umysł ludzki jest systemem przetwarzania informacji, a myślenie jest formą obliczeń. Komputacjonizm twierdzi, że relacja między umysłem a ciałem jest podobna lub identyczna do relacji między oprogramowaniem a sprzętem, a zatem może być rozwiązaniem dylematu psychofizycznego. To stanowisko filozoficzne zostało zainspirowane pracą badaczy AI i naukowców zajmujących się kognitywistyką w latach 1960. i zostało pierwotnie zaproponowane przez filozofów Jerry'ego Fodora i Hilary'ego Putnama[72].

Filozof John Searle scharakteryzował to stanowisko jako tzw. silną AI: Odpowiednio zaprogramowany komputer z właściwymi danymi wejściowymi i wyjściowymi miałby umysł w dokładnie takim samym sensie, w jakim mają umysły ludzie[73]. Searle kwestionuje to twierdzenie swoim argumentem chińskiego pokoju, który próbuje wykazać, że nawet komputer zdolny do idealnego symulowania ludzkiego zachowania nie miałby umysłu[74].

Sztuczna inteligencja na ludzkim poziomie

[edytuj | edytuj kod]

Prognozy dotyczące osiągnięcia przez SI ludzkiego poziomu zmieniały się z biegiem lat. W ankiecie z 2014 roku połowa ekspertów szacowała 50% prawdopodobieństwo osiągnięcia tego poziomu przed 2040 rokiem[75]. W badaniu AI Impacts z 2023 roku, obejmującym ponad 2700 badaczy, mediana prognoz przesunęła się na 2047 rok (50% prawdopodobieństwo osiągnięcia poziomu ludzkiego we wszystkich zadaniach), przy czym 10% respondentów uznało, że nastąpi to przed 2027 rokiem[76].

Systemy AI w latach 2023–2025 zdały wiele testów wcześniej zarezerwowanych dla ludzi: GPT-4 uzyskał wynik w górnych 10% na amerykańskim egzaminie adwokackim (Uniform Bar Exam)[77], a kolejne modele zdały egzaminy z medycyny (USMLE), matematyki olimpijskiej i programowania. Wyniki te nie oznaczają jednak osiągnięcia ogólnej sztucznej inteligencji (AGI), ponieważ obecne systemy mają trudności z zadaniami wymagającymi rozumowania w nowych kontekstach, planowania długoterminowego i uczenia się z niewielkiej liczby przykładów[18].

Zobacz też

[edytuj | edytuj kod]

Przypisy

[edytuj | edytuj kod]
  1. Sztuczna inteligencja (SI) [online], www.infor.pl [dostęp 2025-07-21].
  2. sztuczna inteligencja, [w:] Encyklopedia PWN [online], Wydawnictwo Naukowe PWN [dostęp 2025-07-21].
  3. David Poole, Alan Mackworth, Randy Goebel, Computational Intelligence: A Logical Approach, Oxford University Press, 1998, ISBN 978-0-19-510270-3 (ang.).
  4. Boden 2020 ↓, s. 30.
  5. Andreas Kaplan, Michael Haenlein, Siri, Siri, in my Hand: Who’s the Fairest in the Land? On the Interpretations, Illustrations, and Implications of Artificial Intelligence, „Business Horizons”, 62 (1), 2019, s. 15–25, DOI10.1016/j.bushor.2018.08.004 (ang.).
  6. Annette Flanagin, Kirsten Bibbins-Domingo, Michael Berkwits, Stacy L. Christiansen, Nonhuman “Authors” and Implications for the Integrity of Scientific Publication and Medical Knowledge, „Journal of the American Medical Association”, 329 (8), 2023, s. 637, DOI10.1001/jama.2023.1344 [dostęp 2024-04-12] (ang.).
  7. „Czarna skrzynka” AI. Czy to jest niebezpieczne? Tak odpowiedział ChatGPT.... Dziennik.pl, 2023-06-03. [dostęp 2024-04-11].
  8. How do neural networks learn? A mathematical formula explains how they detect relevant patterns. phys.org, 2024-03-12. [dostęp 2024-04-11].
  9. a b c d e f g h Stuart Russell, Peter Norvig, Artificial Intelligence: A Modern Approach, wyd. 3rd, USA: Prentice Hall Press, listopad 2009, DOI10.5555/1671238, ISBN 978-0-13-604259-4 [dostęp 2025-05-31].
  10. Deep Learning [online], www.deeplearningbook.org [dostęp 2025-05-31] [zarchiwizowane z adresu 2016-04-16].
  11. Li Deng, Dong Yu, Deep Learning: Methods and Applications, „Foundations and Trends® in Signal Processing”, 7 (3–4), 2014, s. 197–387, DOI10.1561/2000000039, ISSN 1932-8346 [dostęp 2025-05-31] (ang.).
  12. Ashish Vaswani i inni, Attention Is All You Need, „arXiv”, 2017, DOI10.48550/arXiv.1706.03762, arXiv:1706.03762 (ang.).
  13. Cade Metz, Karen Weise, A.I. Is Getting More Powerful, but Its Hallucinations Are Getting Worse, „The New York Times”, 5 maja 2025, ISSN 0362-4331 [dostęp 2025-05-31] (ang.).
  14. Christof Koch, Giulio Tononi. Test na świadomość. „Świat Nauki”. nr. 7 (239), s. 32–35, lipiec 2011. Prószyński Media. ISSN 0867-6380. 
  15. Alex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton, ImageNet Classification with Deep Convolutional Neural Networks, „Communications of the ACM”, 60 (6), 2017, s. 84–90, DOI10.1145/3065386 (ang.).
  16. Krystal Hu, ChatGPT sets record for fastest-growing user base, „Reuters”, 2 lutego 2023 (ang.).
  17. ChatGPT w pracy. Kto i jak korzysta z tego narzędzia i jaki mamy do niego stosunek? [online], interaktywnie.com [dostęp 2023-07-30] (pol.).
  18. a b c d The 2025 AI Index Report | Stanford HAI [online], hai.stanford.edu [dostęp 2025-06-01] (ang.).
  19. Agenci AI już teraz pracują obok ludzi w wielu firmach. Oto jak zwiększają przychody lub generują oszczędności [online], Business Insider Polska, 12 stycznia 2025 [dostęp 2025-03-13].
  20. Introducing the Model Context Protocol [online], www.anthropic.com [dostęp 2025-03-13] (ang.).
  21. National Research Council (U.S.). Committee on Innovations in Computing and Communications: Lessons from History, Funding a revolution : government support for computing research, Washington, D.C. : National Academy Press, 1999, ISBN 978-0-309-06278-7 [dostęp 2025-06-01].
  22. a b CNN.com - AI set to exceed human brain power - Jul 25, 2006 [online], edition.cnn.com [dostęp 2025-06-01].
  23. Are you talking to me?, „The Economist, ISSN 0013-0613 [dostęp 2025-06-01].
  24. Google's man behind the curtain - CNET News [online], news.cnet.com [dostęp 2025-06-01] [zarchiwizowane z adresu 2008-10-06].
  25. Bernard Marr, Beyond The Hype: What You Really Need To Know About AI In 2023 [online], Forbes [dostęp 2025-06-01] (ang.).
  26. What do we know about the economics of AI? [online], MIT News | Massachusetts Institute of Technology, 6 grudnia 2024 [dostęp 2025-06-01] (ang.).
  27. Use of artificial intelligence in enterprises [online], ec.europa.eu [dostęp 2025-08-30] (ang.).
  28. US Census Bureau, Only 3.8% of Businesses Use AI to Produce Goods and Services, Highest Use in Information Sector [online], Census.gov [dostęp 2025-06-01] (ang.).
  29. Chiny liderem w wykorzystaniu GenAI w biznesie [online], managerplus.pl, 6 września 2024 [dostęp 2025-06-01].
  30. Ekonomiści: na AI wydajemy mniej od toczącej wojnę Ukrainy [online], rp.pl [dostęp 2025-06-14] (pol.).
  31. What is Generative AI? | IBM [online], web.archive.org, 13 grudnia 2024 [dostęp 2025-04-28] [zarchiwizowane z adresu 2024-12-13].
  32. What is ChatGPT, DALL-E, and generative AI? | McKinsey [online], web.archive.org, 23 kwietnia 2023 [dostęp 2025-04-28] [zarchiwizowane z adresu 2023-04-23].
  33. Helion SA, Jak sztuczna inteligencja może pomóc programistom w codziennej pracy? [online], videopoint.pl [dostęp 2025-03-13].
  34. Benj Edwards, Will the future of software development run on vibes? [online], Ars Technica, 5 marca 2025 [dostęp 2025-03-13] (ang.).
  35. Dong Liang: The Reality of Vibe Coding, why AI Still Fails at Complex Projects. 2025-03-04. [dostęp 2025-03-13].
  36. Improving mathematical reasoning with process supervision [online], openai.com, 19 października 2023 [dostęp 2025-04-28] (ang.).
  37. Zhihong Shao i inni, DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models, arXiv, 27 kwietnia 2024, DOI10.48550/arXiv.2402.03300 [dostęp 2025-08-02] (ang.).
  38. Dmitry Babenko, Haralambos Marmanis, Tomasz Walczak, Inteligentna sieć. Algorytmy przyszłości, Gliwice: Wydawnictwo Helion, 2017, ISBN 978-83-283-3250-8, OCLC 995439215 [dostęp 2020-08-29].
  39. Leszek Cwojdziński (ilustr.), Wpływ sztucznej inteligencji na rozwój nowoczesnych systemów bezzałogowych [online], kwartalnikbellona.com [dostęp 2025-04-19].
  40. W Wojsku Polskim powstaje Centrum Implementacji Sztucznej Inteligencji - Ministerstwo Obrony Narodowej - Portal Gov.pl [online], Ministerstwo Obrony Narodowej [dostęp 2025-04-14].
  41. Czy sztuczna inteligencja może zastąpić lekarzy? [online], Medica, 12 czerwca 2023 [dostęp 2023-06-21] (pol.).
  42. Neural Networks in Gaming: AI That Learns from Players | Gamixlabs [online], www.gamixlabs.com, 28 marca 2025 [dostęp 2025-04-14] (ang.).
  43. Piotr Waszczuk, Polski zespół stworzył sieć neuronową, która uczy się grać w gry znane z platformy Atari [online], ITwiz, 20 listopada 2017 [dostęp 2025-04-14].
  44. Pocket Fritz 4 osiągnął poziom 2898 punktów. The Week in Chess. [dostęp 2025-04-06].
  45. Program AlphaGo wygrał pierwszy mecz w Go z najlepszym graczem na świecie [online], Komputer Świat [dostęp 2016-03-28].
  46. The draughts program Buggy [online], buggy-online.com [dostęp 2017-11-26].
  47. Véronique Ventos, Superhuman performance in competitive bridge with NooK, „Nature”, 2024, DOI10.1038/s41586-024-08095-8 (ang.).
  48. Nirali Bhaliya, Jay Gandhi, Dheeraj Kumar Singh, NLP based Extraction of Relevant Resume using Machine Learning [online], maj 2020.
  49. Real-time video analysis for surveillance and monitoring [online], NeuroSYS [dostęp 2021-05-21] [zarchiwizowane z adresu 2021-04-28] (ang.).
  50. The Nobel Prize in Chemistry 2024. nobelprize.org. [dostęp 2026-04-06]. (ang.).
  51. Monica Chin, These students figured out their tests were graded by AI – and the easy way to cheat [online], The Verge, 2 września 2020 [dostęp 2020-09-06] (ang.).
  52. Thompson 2019 ↓, s. 317–360.
  53. Thompson 2019 ↓, s. 340–341.
  54. Thompson 2019 ↓, s. 343.
  55. Thompson 2019 ↓, s. 344–345.
  56. Zakodowane uprzedzenie (2020) [online], naEKRANIE.pl [dostęp 2024-11-22].
  57. Techniki manipulacji w świecie deepfake'ów - jak sztuczna inteligencja zmienia oblicze dezinformacji - Portal sztucznej inteligencji - Portal Gov.pl [online], Portal sztucznej inteligencji [dostęp 2025-11-25].
  58. Odpowiedzialność za wadliwe działanie AI - IT w Administracji - Centrum Szkoleniowe [online] [dostęp 2025-11-25].
  59. FakeGPT: Fake News Generation, Explanation and Detection of Large Language Models [online], arxiv.org [dostęp 2025-11-25].
  60. Weronika Szlachta, Wykorzystanie Sztucznej Inteligencji w walce z dezinformacją na przykładzie ChatGPT [online], 28 czerwca 2024 [dostęp 2025-11-25].
  61. Regulation of Artificial Intelligence in Selected Jurisdictions [online], 2019.
  62. The race against time for smarter development [online], unesdoc.unesco.org [dostęp 2025-05-31].
  63. Akt w sprawie sztucznej inteligencji. digital-strategy.ec.europa.eu. [dostęp 2026-04-06].
  64. Komisja podpisała Konwencję ramową Rady Europy o sztucznej inteligencji i prawach człowieka, demokracji i praworządności | Kształtowanie cyfrowej przyszłości Europy [online], digital-strategy.ec.europa.eu [dostęp 2025-05-31].
  65. Council of Europe opens first ever global treaty on AI for signature - Portal [online], www.coe.int [dostęp 2025-05-31] [zarchiwizowane z adresu 2024-09-17] (ang.).
  66. Anthony Grayling, Philosophy is crucial in the age of AI, „The Conversation” [dostęp 2025-05-31] [zarchiwizowane z adresu 2024-10-05] (ang.).
  67. Oshan Jarow, Will AI ever become conscious? It depends on how you think about biology., „Vox”, 15 czerwca 2024 [dostęp 2025-05-31] [zarchiwizowane z adresu 2024-09-21] (ang.).
  68. John McCarthy, The Philosophy of AI and the AI of Philosophy [online], jmc.stanford.edu [dostęp 2025-05-31] [zarchiwizowane z adresu 2018-10-23].
  69. AI udaje emocje. "Próby obchodzenia poleceń" [online], Spider's Web, 3 kwietnia 2026 [dostęp 2026-04-06].
  70. Will Knight, Anthropic Says That Claude Contains Its Own Kind of Emotions [online], WIRED Middle East, 6 kwietnia 2026 [dostęp 2026-04-06] (ang.).
  71. Janet Harrison, Anthropic Says Treating AI Like It Has Feelings Might Actually Be Useful [online], Startup Fortune, 4 kwietnia 2026 [dostęp 2026-04-06] (ang.).
  72. Michael Rescorla, The Computational Theory of Mind, Edward N. Zalta, Uri Nodelman (red.), wyd. Winter 2024, Metaphysics Research Lab, Stanford University, 2024 [dostęp 2025-05-31].
  73. John R. Searle, Mind, Language, and Society, Basic Books, 1 stycznia 2000, ISBN 978-0-465-04521-1 [dostęp 2025-05-31].
  74. John R. Searle, Minds, brains, and programs, „Behavioral and Brain Sciences”, 3 (3), 1980, s. 417–424, DOI10.1017/S0140525X00005756, ISSN 1469-1825 [dostęp 2025-05-31] (ang.).
  75. Vincent C. Müller, Nick Bostrom, Future Progress in Artificial Intelligence: A Survey of Expert Opinion [online], 2014, s. 10.
  76. Katja Grace i inni, Thousands of AI Authors on the Future of AI, „arXiv”, 2024, DOI10.48550/arXiv.2401.02843, arXiv:2401.02843 (ang.).
  77. OpenAI, GPT-4 Technical Report, „arXiv”, 2023, DOI10.48550/arXiv.2303.08774, arXiv:2303.08774 (ang.).

Bibliografia

[edytuj | edytuj kod]
  • Clive Thompson: Koderzy. Znak Litera Nowa, 2019, s. 317–360. ISBN 83-240-7009-5. (pol.).
  • Margaret Ann Boden: Sztuczna inteligencja. Wydawnictwo Uniwersytetu Łódzkiego, 2020. ISBN 83-8142-639-1. (pol.).

Linki zewnętrzne

[edytuj | edytuj kod]
Polskojęzyczne
  • PSSI – Oficjalna strona Polskiego Stowarzyszenia Sztucznej Inteligencji
  • Sztuczna inteligencja (materiały dydaktyczne MIMUW na studia informatyczne I stopnia)

publikacja w otwartym dostępie – możesz ją przeczytać Nagrania na YouTube [dostęp 2023-11-30]:

Anglojęzyczne