Tussen angst en onverschilligheid: het juiste perspectief op de opkomst van artificiële intelligentie
Jan Broersen
Masterclass Ministerie van Infrastructuur en Milieu Den Haag 18 mei 2016
We moeten niet onverschillig staan tegenover AI: er gebeurt veel meer dan de meeste
mensen zich realiseren.
Recente mijlpalen in de AI
• 1979: IBM’s Deep blue verslaat Kasparov bij schaak (achievement: programmeren van kennis)
Recente mijlpalen in de AI
• 2011: IBM’s Watson verslaat de mens met het spel Jeopardy (achievement: automatische kennisextractie uit teksten)
• 2015: Google’s Deep Mind-team demonstreert een AI die 49 Atari-spellen zelf leert spelen en verslaan (achievement: van specifieke intelligentie naar meer algemene intelligentie)
• 2015: via een ‘over the air’-update introduceert Tesla ‘learning’ self driving cars (achievement: eerste real life robotic machine learning ‘experiment’)
• 2016: AlphaGo verslaat Lee Se-dol bij go (achievement: geen programmeren van kennis, maar leren van ‘intuïties’)
Algotrading
Estimate as of 2008: 50% of all trading
Wiley, 2013
Autonomous weapons
Oxford University Press, 2009
Medical robots
2015: 100% increase in investments in surgical robotics
Self driving cars: pros and cons
November 2015, provoking risky behaviour
October 2015, preventing an accident
MobilEye (leverancier self-driving technology)
• CEO MobilEye: we kunnen nog niet omgaan met "corner events”
• corner event = intuitive driving decision that are common and at the same time unique which makes them hard to program
• Examples: construction vehicles the car doesn't recognise, handwritten signs, wildlife, a pedestrian wearing a weird costume, etc.
Video by Patrick Lin, Stanford Law School
important points from the video
• “Split second decisions”: moral wiggle room for humans, not for machines (Google example)
• Would we accept randomness as a decision source?
• For a human driver, the difference between e.g., consequentialism, Kantianism and virtue ethics may not be important. But, for Google and Tesla it does seem important..
AI in computer scienceSub-symbolic AI Symbolic AI
Bottom-up intelligence: - search, - decision tree algorithms, - evolutionary techniques, - neural networks - connectionism - data-mining
Top-down intelligence: - logic, - BDI-theory, - game theory, - multi-agent systems, - agent / logic programming, - planning, - belief revision
Probabilistic AI- decision theory, - Bayesian networks,
- (PO)MDPs, - reinforcement learning
Global architecture of a modern intelligent system
Environmentsymbolic systems
many feedback loops are not pictured
sub-symbolic + probabilistic systems
‘smart’ servo systems
actions
sensory input
truths & beliefs
decisions
(robotics)
(logic)
(ontologies)
Agent
The Responsibility Gap
My conclusion: we need ‘good old fashioned’ symbolic AI
De verantwoordelijkheid van Facebook
• 2014: Facebook’s algoritmes worden er van beschuldigd het nieuws uit Ferguson, Missouri (rellen na
doodschieten zwarte jongen door politieagent) stelselmatig te bagatelliseren ⇒ voortaan handmatige selectie van
trending artikelen.
• 2016: het facebook-team dat trending artikelen selecteert wordt er van beschuldigd geen conservatieve artikelen te selecteren.
Beter verantwoordelijkheid te geven aan de machine of aan de mens?
We moeten de gevaren van AI niet overdrijven: AI kan minder dan veel mensen zich realiseren.
Doomsday filosofen, wetenschappers en entrepreneurs
Elon Musk: “We need to be super careful with AI. Potentially more dangerous than nukes”
Bill Gates: “If computers will run the algorithms that are in our heads, nobody knows what will happen”
Nick Bostrom: “Machine intelligence is the last invention that humanity will ever need to make”
Stephen Hawking: “machines with AI could spell the end of the human race”
De stand van zaken in de AI
huidige AI = optimaliseren in een zoekruimte met mogelijke intelligente gedragingen:
• Symbool-gebaseerde AI = optimaliseren van plannen in een vastgestelde zoekruimte
• Neurale netwerken = optimaliseren in de zoekruimte van binnen het netwerk mogelijke input-output verbanden
• Evolutionair programmeren = optimaliseren in de zoekruimte van mogelijke input-output beschrijvingen
Rekenkracht: de wet van Moore
De invloed van rekenkracht op intelligentie
• Maar, kan ‘gebrek’ aan intelligentie altijd worden gecompenseerd door meer rekenkracht?
• Bij schaak uiteindelijk wel (eindige spelruimte; met ‘backwards induction’ terugrekenen vanuit gewonnen eindposities)
• Maar in het algemeen lijkt me van niet (asymptoot naar een maximale waarde?)
Algemene intelligentie complexer dan schaakintelligentie
Complicaties bij algemene intelligentie:
• Wat de zoekruimte is, is onduidelijk.. • De zoekruimte is vaak oneindig diep.. • De zoekruimte is vaak oneindig breed.. • Onzekerheid (acties die kunnen falen).. • Continu veranderende omgeving.. • Sociale interacties in groepen (ethiek,
irrationaliteit, etc.).. • etc.
Binnen en buiten bereik van de huidige AI
Binnen bereik: • Strategisch optimaliseren in een vaste zoekruimte • Op statistische wijze teksten ‘interpreteren’ • Machine learning voor zelf-rijdende auto’s
Vooralsnog buiten bereik: • Algemene intelligentie (‘un-supervised’ creëren
van ideeën en oplossingen bij willekeurige problemen)
• Gevoel en intuïtie (een oplossing aanvoelen) • Ervaren van gevoelens (pijn, liefde, trots, etc.) • Bewustzijn
Hoe Kasparov van Deep Blue verloor in de rematch
• In de eerste partij deed Deep Blue een briljante zet: Kasparov was overdonderd
• Kasparov: “the counterintuitive play must be a sign of superior intelligence”
• In de tweede partij was Kasparov zichzelf niet; hij beschuldigde IBM van vals spel en gaf op in remise-stand
• Kasparov verloor het toernooi met 3½ - 2½
Hoe moeten we ons verhouden tot AI?
• Laten we niet zo reageren als Kasparov (Foto: Volkskrant 1997): lees niet méér in de prestaties van (onze huidige) AI dan er daadwerkelijk in zit!
Dank u voor de aandacht
Naar de stellingen
Stellingen
• De voortschrijdende aanwezigheid van AI stelt ons voor geen enkel nieuw probleem op het gebied van wetgeving.
• AI zal ooit de status van ‘legal personhood’ verwerven.
• AI veroorzaakt ‘responsibility gaps’. • AI ontneemt het gezicht op causale
verantwoordelijkheden. • Technologische responsibility gaps bestaan al,
bijvoorbeeld via Facebook.
Stellingen
• Wanneer AI ons zal evenaren en overtreffen, dan moeten we AI vrezen.
• AI zal ons evenaren en overtreffen. • Wanneer we verantwoordelijkheden
delegeren naar AI, moeten we eerder bang zijn dat die AI te dom is dan te slim.
Top Related