Postęp w sztucznej inteligencji

 Główny artykuł: Sztuczna inteligencja.
Procent błędów przy klasyfikacji obrazów dokonywanej przez SI (niebieskie słupki) i przez człowieka (czerwona linia)[1]

Sztuczna inteligencja jest wykorzystywana w wielu dziedzinach, takich jak diagnostyka medyczna, gra na giełdzie, sterowanie robotami czy automatyczne dowodzenie twierdzeń. Wiele tych zastosowań nie jest jednak traktowanych jako SI, ponieważ termin zwykle kojarzy się z tymi funkcjami ludzkiego umysłu, których jeszcze nie potrafimy odtworzyć w komputerze[2][3].

W odpowiednio zdefiniowanych warunkach można porównywać wyniki uzyskane przez programy komputerowe z wynikami uzyskiwanymi przez ludzi. Testy takie nazywane są eksperckimi testami Turinga. W ten sposób można wskazywać kolejne problemy, dla których programy znajdują rozwiązania lepiej niż ludzie.

Osiągnięcia SI w rozwiązywaniu problemów

[edytuj | edytuj kod]

Osiągnięcia SI w rozwiązywaniu różnych problemów można podzielić na następujące kategorie:

  • rozwiązane: nie jest możliwe uzyskanie lepszego wyniku
  • nadludzkie: lepsze niż uzyskane przez jakiegokolwiek człowieka
  • mistrzowskie: odpowiadające poziomowi specjalistów w danej dziedzinie
  • ludzkie: odpowiadające poziomowi przeciętnego człowieka
  • słabe: gorsze od większości ludzi

Rozwiązane

[edytuj | edytuj kod]
  • Kółko i krzyżykdrzewo gry ma 26830 węzłów, więc nawet prosty program brute force może je łatwo przejrzeć.
  • Czwórki – drzewo gry ma 4,5 biliona pozycji. Strategia optymalna została znaleziona w 1988 roku[4].
  • Warcaby angielskie – drzewo gry ma 5×1020 pozycji. Strategia optymalna została znaleziona w 2007 roku[5].
  • Kostka Rubika – istnieje 4×1019 pozycji. W 1995 roku pokazano, że niektóre z nich wymagają 20 ruchów. W 2010 roku sprawdzono, że każdą pozycję da się rozwiązać w nie więcej niż 20 ruchów[6].

Nadludzkie

[edytuj | edytuj kod]
  • Pilotowanie myśliwca – w 2016 roku program ALPHA w symulowanych pojedynkach powietrznych wygrywał za każdym razem z ekspertami, nawet pilotując myśliwiec o słabszych parametrach[7].
  • Diagnostyka raka płuc i zapalenia płuc – w 2013 roku superkomputer Watson poprawnie diagnozował 90% przypadków raka płuc, podczas kiedy przeciętny onkolog 50%[8]. W 2017 roku CheXNet trafniej diagnozował zapalenie płuc od specjalistów[9].
  • Diagnostyka czerniaka - w 2017 roku najlepsze sieci neuronowe osiągały wyniki takie jak dermatolodzy[10]. W 2018 były już od nich lepsze[11].
  • Rozstrzyganie kwestii z zakresu prawa ubezpieczeń gospodarczych[12] i umów poufności[13].
  • Poker - w 2019 roku program Pluribus (ulepszona wersja Libratusa) wykazał się nadludzkimi wynikami w sześcioosobowej wersji pokera bez limitu, najpopularniejszej odmianie pokera[14]
  • Teleturnieje z pytaniami dotyczącymi ogólnych tematów, takich jak historia, literatura, sztuka, nauka czy sport – w 2011 roku superkomputer Watson pokonał najlepszych graczy w Jeopardy![15]
  • Scrabble[16]
  • Puzzle[17]
  • Reversi[18]
  • Szachy – najlepsze programy szachowe osiągają ranking szachowy ponad 3400, podczas gdy najwyższy ranking człowieka to 2882[19][20]
 Zobacz też: Deeper Blue.

Mistrzowskie

[edytuj | edytuj kod]

Ludzkie

[edytuj | edytuj kod]
  • Rozpoznawanie liter
  • Rozpoznawanie mowy – w 2015 roku Baidu ogłosiła, że ich system rozpoznawania mowy Deep Speech 2 rozpoznaje mandaryńskie i angielskie frazy wyrwane z kontekstu lepiej, niż przeciętny człowiek znający oba języki[26]
  • Rozpoznawanie obrazów – w 2015 roku program opracowany przez Microsoft robił 4,94% błędów przy rozpoznawaniu obrazów z otwartej bazy danych ImageNet, podczas gdy ludzie robią średnio 5,1% błędów[1]
  • Czytanie ze zrozumieniem - w 2018 roku program Alibaby SLQA+ i program Microsoftu r-net zdobyły 82,4 i 82,7 punktów w teście składającym się ze 100 tysięcy pytań. Przeciętny wynik człowieka to 82,3[27]. Podobny wynik osiągnął MT-DNN na teście General Language Understanding Evaluation[28].

Przypisy

[edytuj | edytuj kod]
  1. a b Jordan Novet: Microsoft researchers say their newest deep learning system beats humans — and Google. VentureBeat, 9 lutego 2015. (ang.).
  2. AI set to exceed human brain power. CNN, 26 lipca 2006. (ang.).
  3. Kaplan Andreas; Michael Haenlein (2018) Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence, Business Horizons, 62(1)
  4. John Tromp: John's Connect Four Playground. (ang.).
  5. Computers Solve Checkers — It's a Draw. Scientific American, 19 lipca 2007. (ang.).
  6. God's Number is 20. (ang.).
  7. Beyond video games: New artificial intelligence beats tactical experts in combat simulation. 27 czerwca 2016. (ang.).
  8. IBM's Watson is better at diagnosing cancer than human doctors. 11 lutego 2013. (ang.).
  9. CheXNet: Radiologist-Level Pneumonia Detection on Chest X-Rays with Deep Learning [online], org/pdf/1711.05225.pdf [dostęp 2024-04-25].
  10. Esteva, Andre, et al. "Dermatologist-level classification of skin cancer with deep neural networks." Nature 542.7639 (2017): 115.
  11. Man against machine: diagnostic performance of a deep learning convolutional neural network for dermoscopic melanoma recognition in comparison to 58 dermatologists
  12. W 2017 roku Case Cruncher Alpha poprawnie osądził 86,6% spraw, podczas gdy średnia dla prawników wynosiła 66,3%: The robot lawyers are here - and they’re winning - BBC News. [dostęp 2017-11-05].
  13. Stanford, USC, Duke study shows AI reads contracts better than lawyers. [dostęp 2018-02-26].
  14. Dana G. Smith, AI Learns What an Infant Knows about the Physical World [online], Scientific American [dostęp 2024-09-13] (ang.).
  15. Computer Wins on ‘Jeopardy!’: Trivial, It’s Not. 17 lutego 2011. (ang.).
  16. World-championship-caliber Scrabble
  17. Computer software sets new record for solving jigsaw puzzle
  18. LOGISTELLO's Homepage
  19. CCRL 40/40. (ang.).
  20. Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm [online] [dostęp 2017-12-05].
  21. Tom Simonite: Data Shows Google’s Robot Cars Are Smoother, Safer Drivers Than You or I. Technology Review, 25 października 2013. [dostęp 2014-06-25]. (ang.).
  22. Gerald Tesauro. Temporal difference learning and TD-Gammon. „Communications of the ACM”. 38 (3), s. 58–68, March 1995. DOI: 10.1145/203330.203343. 
  23. RoboBridge – Home
  24. Proverb: The probabilistic cruciverbalist. By Greg A. Keim, Noam Shazeer, Michael L. Littman, Sushant Agarwal, Catherine M. Cheves, Joseph Fitzgerald, Jason Grosland, Fan Jiang, Shannon Pollard, and Karl Weinmeister. 1999. In Proceedings of the Sixteenth National Conference on Artificial Intelligence, 710-717. Menlo Park, Calif.: AAAI Press.
  25. Google says its AI detects 26 skin conditions as accurately as dermatologists [online], VentureBeat, 13 września 2019 [dostęp 2019-09-29] (ang.).
  26. Baidu’s Deep-Learning System Rivals People at Speech Recognition. 16 grudnia 2015. [dostęp 2015-12-21]. [zarchiwizowane z tego adresu (21 grudnia 2015)]. (ang.).
  27. The Stanford Question Answering Dataset [online], rajpurkar.github.io [dostęp 2018-01-17].
  28. Guggs, Microsoft’s MT-DNN Achieves Human Performance Estimate on General Language Understanding Evaluation (GLUE) Benchmark [online], blogs.msdn.microsoft.com [dostęp 2019-07-02] (ang.).