Post on 11-Apr-2017
Cztery Wykłady Słupskie
Czym jest w istocie Sztuczna
Inteligencja?
Ewolucja Internetu
Co to jestBitcoin
i Blockchain?
Czym jest „Cyfrowość”
(Digital)?
Czym jest w istocie Sztuczna Inteligencja?
Plan wykładu
Sztuczna inteligencja
Nie mamy dziś ogólnie zaakceptowanej definicji Sztucznej Inteligencji!
Mamy bardzo złą „popularną” definicję (wywodzącą się z literatury i filmu Science Fiction)
wyrażoną np. w:
„The exciting new effort to make computers think … machines with minds, in the full and literal
sense.” (John Haugeland, autor koncepcji GOFAI - Good Old-Fashioned Artificial Intelligence)
Jeden z najbardziej popularnych podręczników Sztucznej Inteligencji (Russell and Norvig,
„Artificial Intelligence: A Modern Approach”) podaje aż cztery definicje:
o Systemy, które „myślą” jak ludzie
o Systemy, które „zachowują się” jak ludzie
o Systemy, które „myślą” racjonalnie
o Systemy, które „zachowują się” racjonalnie
DOBRA, ROBOCZA DEFINICJA:
„Sztuczna inteligencja (Artificial Intelligence) jest nauką oraz zbiorem technologii obliczeniowych, inspirowanych, (choć zwykle działających w zupełnie inny sposób) –metodami, jakimi posługują się ludzie używający swojego umysłu, inteligencji i cielesności, aby postrzegać, uczyć się, wnioskować i podejmować stosowne działania.”
Definicja tu przytoczona oparta jest o definicję zawartą w słynnym raporcie AI100„One Hundred Years Study on Artificial Intelligence”: http://ai100.stanford.edu/
• Prekursorem Sztucznej Inteligencji jest Alan Turning – genialny matematyk i kryptoanalityk. Twórca matematycznego modelu komputerów – ważnego do dziś.
• Sztuczna Inteligencja jako dyscyplina naukowa powstała w wyniku bardzo długiego i burzliwego rozwoju zapoczątkowanego w roku 1956 przez John’a McCarthy, który zorganizował w Dartmouth (USA) słynny „Letni Projekt badawczy Sztucznej Inteligencji”.
• J. McCarthy, M. L. Minsky, N. Rochester, C.E. Shannon. “Dartmouth Summer Research Project On Artificial Intelligence”.
• Lata 60-te XX wieku – finansowanie projektów AI przez Department of Defense.
• Optymizm:
Herbert Simon: "machines will be capable, within twenty years, of doing any work a man can do."
Marvin Minsky: "within a generation ... the problem of creating 'artificial intelligence' will
substantially be solved."
• Był to jednak optymizm przedwczesny – w latach 70-tych następuje zatrzymanie finansowania AI –
rozpoczyna się okres zwany „AI Winter” – „Zima Sztucznej Inteligencji”
• Lata 80-te – Rozwój Systemów Eksperckich – „Expert systems”
• Lata 90-te – Rozwój „Data mining”, diagnostyka medyczna
• Koniec wieku - symboliczne zwycięstwo Deep Blue (IBM) nad Gary Kasparow (Maj 1997)
• Pierwsze lata XXI wieku – Rozwój machine-learning (IBM Watson zwycięża w Jeopardy – 2011)
• 2010-2015 – Rozwój technologii „Deep Learning” „Neural networks” i „Big Data”
• 2015 – rok dynamicznego wzrostu ilości projektów AI …
Ograniczona Sztuczna Inteligencja (Narrow AI, Soft AI) jest zastosowaniem bardzo szerokiego spektrum algorytmów komputerowych do rozwiązywania problemów wymagających inteligentnej analizy, logicznego wnioskowania oraz podejmowania działań, jakie dotychczas zwykle były domeną intelektu człowieka.
Opisując zjawisko „Narrow AI” nie można wskazać jednego dominującego sposobu rozwiązywania występujących w nim problemów.
Cechą charakterystyczną tego kierunku jest stosowanie algorytmów, które są bardzo specyficzne dla specyficznych problemów.
I tak na przykład najlepsze współczesne algorytmy rozpoznawania i analizy obrazów są zupełnie inne od algorytmów analizy języka naturalnego (NLP – Natural Language Processing) czy też algorytmów Automatycznej Analizy Mowy - ASR (Automated Speech Recognition)
Ogólna Sztuczna Inteligencja (Hard AI, General AI, AGI – Artificial General Intelligence):
To dziedzina badań odnosząca się do nadal SPEKULATYWNEJ przyszłej Sztucznej Inteligencji, która charakteryzuje się inteligentnym zachowaniem przynajmniej tak zaawansowanym jak istota ludzka w bardzo szerokim zakresie funkcji kognitywnych.
Pomiędzy Ograniczoną a Ogólną Sztuczną Inteligencją występuje dziś gigantyczna przepaść.
Wszelkie usiłowania aby przejść (ewolucyjnie) od Ograniczonej go Ogólnej Sztucznej Inteligencji nie przyniosły żadnego efektu mimo dziesięcioleci badań i eksperymentów.
Ogólna Sztuczna Inteligencja stała się przedmiotem wielu spekulacji, z których najbardziej znana to teoria Singularności (Ray Kurzweil) przewidująca eksplozję inteligencji maszynowej oraz możliwości takie jak np. „upload” zawartości umysłu do komputerów.
Ale - czy Ogólna Sztuczna Inteligencja jest w ogóle możliwa ….?
Wielu wybitnych naukowców uważa, że NIE!Argumentacja jest bardzo silna:
Twierdzenie Turinga i jego konsekwencje
„He went on to prove that there was no solution to the decision problem by first showing that the halting problem for Turing machines is undecidable: It is not possible to decide algorithmically whether a Turing machine will ever halt.” https://en.wikipedia.org/wiki/Alan_Turing
Skoro Wszystkie znane dziś systemy komputerowe SĄ maszynami Turinga
Oraz Ludzki umysł posiada zdolność (nie algorytmiczną) rozwiązania „problemu stopu”
Wnioskujemy komputery nie mogą mieć zdolności posiadanych przez ludzki umysł
ZNACZENIE TWIERDZENIA GÖDEL’A.„Gödel's incompleteness theorems are two theorems of mathematical logic that demonstrate the inherent limitations of every formal axiomatic system containing basic arithmetic. (…)The theorems are widely, but not universally, interpreted as showing that Hilbert's program to find a complete and consistent set of axioms for all mathematics is impossible.”https://en.wikipedia.org/wiki/Godels_theorem
ZNACZENIE TWIERDZENIA GÖDEL’A - ARGUMENT LUCAS-PENROSE’A: „The argument claims that Gödel’s first incompleteness theorem shows that the human mind is not a Turing machine, that is, a computer. The argument has generated a great deal of discussion since then. The influential Computational Theory of Mind, which claims that the human mind is a computer, is false if Lucas’s argument succeeds. Furthermore, if Lucas’s argument is correct, then “strong artificial intelligence,” the view that it is possible at least in principle to construct a machine that has the same cognitive abilities as humans, is false.(http://www.iep.utm.edu/lp-argue/) „
PONADTO:
wielu badaczy (w tym sam Penrose) sugerowało, że jeśli poznamy lepiej zjawiska kwantowe zachodzące w mózgu, i odtworzymy je w „kwantowym komputerze” – otworzy to drogę do Sztucznej Inteligencji…
ALE …
Poglądsłynnych fizyków …
… i psychologów
Najciekawsze argumenty pochodzą z rozważań Davida Deutsch’a:https://aeon.co/essays/how-close-are-we-to-creating-artificial-intelligence
Z jednej strony Deutsch nie akceptuje argumentu opartego na twierdzeniu Turinga:
Ale konkluduje:
Narrow AIOgraniczonej Sztucznej
Inteligencji
Uczenie maszynowe (Machine Learning)
Analiza Języka Naturalnego / Syntetyczna Mowa
Rozpoznawanie i analiza obrazu / Maszynowe Widzenie
Planowanie aktywności ludzi i systemów - systemy kolaboracyjne
Robotyka
Autonomiczne systemy transportowe
Diagnostyka i roboty medyczne
Maszynowa Reprezentacja Wiedzy, maszynowe Wnioskowanie
Systemy Eksperckie
Apple’s Siri
Google Now
Microsoft Cortana
Amazon Alexa
Google Search
Self Driving cars
MakoLab SESSA
TIM BERNERS-LEE oraz JIM HANDLERwyznaczają kierunki (po raz trzeci w historii)
Postulują, że jedynie Semantic Web może pomóc w stworzeniu „social machines” –agentów praktycznie pomagających nam w życiu
https://www.weforum.org/agenda/2016/01/the-fourth-industrial-revolution-what-it-means-and-how-to-respond/
https://www.whitehouse.gov/blog/2016/05/03/preparing-future-artificial-intelligence
http://www.bbc.com/earth/story/20170215-the-strange-link-between-the-human-mind-and-quantum-physicshttps://www.technologyreview.com/s/428235/intel-reveals-neuromorphic-chip-design/
Ostrzeżenie Stephena Hawkinga
Lęk Elona Muska
Systematyczna wykładnia zagrożeń przez Nick’a Bostroma (Oxford)
Nie są zatem pozbawione sensu usiłowania zbudowania swoistej „etyki” dla Sztucznej Inteligencji. https://www.cs.ox.ac.uk/efai/tag/principles-of-robotics/
Izaak Asimov sformułował „trzy prawa robotów” (1942):
Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
Robot musi być posłuszny rozkazom człowieka, chyba, że stoją one w sprzeczności z Pierwszym Prawem.
Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub
Drugim Prawem. https://en.wikipedia.org/wiki/Three_Laws_of_Robotics
Koncepcji „Maszyny Deontycznej” Roberta Trypuza i Piotra Kulickiego (KUL/MakoLab):Robert Trypuz, Piotr Kulicki, „Deontic machine for prima facie duties”
Jeśliby taka ogólna AI powstała na bazie tradycyjnych (klasycznych – czyli mieszczących się w definicji „Maszyny Turinga”) technik obliczeniowych, nie sposób będzie utrzymać pogląd o „nieredukowalnym” umyśle. Konieczna byłaby rewizja koncepcji osoby ludzkiej, jako bytu duchowo-cielesnego, gdyż nie da się wtedy już utrzymać założenia o substancjalności i niezależności bytowej ostatecznej podstawy świadomości, czyli ludzkiej duszy.
Jeśli natomiast taka „General AI” powstałaby za pomocą metod bliskich „Quantum Computing” musielibyśmy dodatkowo z całą pewnością odrzucić kartezjański dualizm „duszy” i „ciała”, ale też być może nawet bardziej subtelne koncepcje relacji duszy i ciała występujące z jednej strony w tradycji Arystotelowskiej, a z drugiej –w ujęciach fenomenologicznych osoby ludzkiej.
Istnienie możliwej do technologicznego stworzenia „Ogólnej AI” naruszyłoby też pewność, z jaką w naszej kulturze a szczególnie w tradycji religii Abrahamowych, wypowiadamy się o szczególnej roli człowieka w porządku stworzenia i jego duchowo-cielesnej naturze.
Być może warto, aby właśnie w tym kontekście, filozofowie oraz przedstawiciele poglądów religijnych wzmocnili istniejący, ale niezbyt aktywny dialog, zarówno pomiędzy sobą jak również z innymi tradycjami religijnymi i zapoczątkowali poważne rozważania na temat Sztucznej Inteligencji?
Być może powstanie Ogólnej AI nie musi zaprzeczać odmienionej, ale nadal głęboko duchowej koncepcji człowieka? Warto tutaj zwrócić uwagę, iż np. w buddyzmie znajdujemyinteresujący, choć niewątpliwie kontrowersyjny pogląd, niewykluczający sztucznej inteligencji ze zdolności do osiągnięcia oświecenia duchowego.
Oczywiście, wszystkie tego typu rozważania są oparte na jedynie hipotetycznym istnieniu „Strong AI”. Dzisiaj tak rozumianej Sztucznej Inteligencji nie ma i należy zachować daleko idącą ostrożność, zarówno zakładając jej szybkie powstanie jak i też zaprzeczając takiej możliwości…
Rola Naukii Uniwersytetów
w rozwoju AI
Szczególnie ważne dla AI są następujące kierunki dydaktyki:
Algorytmy optymalizujące
Analiza danych
Niestandardowe bazy danych
Maszynowe uczenie
Maszynowe wnioskowanie
Rozpoznawanie obrazów i mowy
Reprezentacja wiedzy
Rola badań nad językiem:
Komunikacja z nowoczesnymi inteligentnymi systemami wymaga rozpoznawania i generowania mowy ludzkiej – kompetencje w zakresie NLP (Natural Language Processing) są dziś bardzo potrzebne
Automatyczna analiza tekstów i rozpoznawanie znaczeń jest bardzo ważnym elementem wielu nowoczesnych systemów cyfrowych. Lingwistyka – może odegrać ogromną rolę w tworzeniu takich systemów.
Nowoczesne kierunki takie jak kognitywistyka pozwalają na kształcenie specjalistów w dziedzinach powiązanych z „Narrow AI”
Informatyka współczesna potrzebuje dziś wsparcia zaawansowanej logiki i filozofii.
Filozofowie i etycy mogą zaangażować się w tworzenie klimatu społecznej akceptacji dla „Narrow AI”
Systemy Sztucznej Inteligencji, w tym systemy „autonomiczne” (w tym np. „self-driving cars”) wymagają bardzo starannego i racjonalnego opracowania zagadnień etycznych.
Niezmierne istotne zagadnienie w rozstrzyganiu odpowiedzialności działań systemów AI !
Racjonalizacja zagadnień etycznych może prowadzić do możliwości reprezentacji etyki za pomocą danych i programów.
Absolwenci humanistyki mogą odegrać ogromną rolę w tworzeniu regulacji prawnych stosowania AI.
Budowanie ontologii, systemów i aplikacji semantycznych, repozytoriów wiedzy – wymaga dogłębnej znajomości logiki i klasycznej ontologii.
Dziedziny takie jak epistemologii i metafizyka są również bardzo pomocne.
Klasyczne wykształcenie filozoficzne pobudza zdolność do krytycznego myślenie – niezbędną w pracy w tych dziedzinach.
Cyfrowa rzeczywistość jaka nas otacza już dziś nabiera postaci ECOSYSTEMU.
Niestety, nikt do końca nie rozumie jej istoty.
Istnieje potrzeba badań filozoficznych jakie inspiruje np. Pierre Tielhard de Chardin – por. jego pojęcia NOOSFERA, Punkt OMEGA ?
Image designed by St. Edward’s University graphic design students
Badania nad umysłem i naturą inteligencji
https://www.theguardian.com/science/2012/oct/03/philosophy-artificial-intelligence
3/10/2012