Hvad kunstig intelligens faktisk kan i dag
Hvad kunstig intelligens faktisk kan i dag
Anonim

Spoiler-alarm: Der er stadig lang tid før maskinernes opstand.

Hvad kunstig intelligens faktisk kan i dag
Hvad kunstig intelligens faktisk kan i dag

Da Elon Musk introducerer den humanoide robot Tesla Bot, ser det ud til, at en ny videnskabelig revolution er lige om hjørnet. Lidt mere – og kunstig intelligens (AI) vil overgå mennesket, og maskiner vil erstatte os på arbejdet. Professorerne Gary Marcus og Ernest Davis, begge kendte AI-eksperter, bliver dog bedt om ikke at forhaste sig til sådanne konklusioner.

I Artificial Intelligence Reboot forklarer forskere, hvorfor moderne teknologi langt fra er ideel. Med tilladelse fra forlaget "Alpina PRO" udgiver Lifehacker et uddrag fra det første kapitel.

På dette tidspunkt er der en enorm kløft - en reel kløft - mellem vores ambition og virkeligheden af kunstig intelligens. Denne kløft er opstået på grund af uløstheden af tre specifikke problemer, som hver især skal behandles ærligt.

Den første af disse er det, vi kalder godtroenhed, som er baseret på, at vi mennesker ikke rigtig har lært at skelne mellem mennesker og maskiner, og det gør det nemt at narre os. Vi tilskriver intelligens til computere, fordi vi selv har udviklet os og levet blandt mennesker, der i høj grad baserer deres handlinger på abstraktioner som ideer, overbevisninger og ønsker. Maskinernes adfærd minder overfladisk ofte om menneskers adfærd, så vi tildeler hurtigt maskiner den samme type grundlæggende mekanismer, selvom maskinerne ikke har dem.

Vi kan ikke lade være med at tænke på maskiner i kognitive termer ("Min computer tror, jeg har slettet min fil"), uanset hvor simple regler, maskinerne faktisk følger. Men de konklusioner, der retfærdiggør sig selv, når de anvendes på mennesker, kan være helt forkerte, når de anvendes på kunstig intelligens-programmer. I respekt for et grundlæggende princip inden for socialpsykologi kalder vi dette den grundlæggende validitetsfejl.

Et af de tidligste tilfælde af denne fejl opstod i midten af 1960'erne, da en chatbot ved navn Eliza overbeviste nogle mennesker om, at han virkelig forstod de ting, de fortalte ham. Faktisk samlede Eliza bare nøgleord op, gentog det sidste, personen sagde til hende, og i en blindgyde situation greb hun til standard samtaletricks som "Fortæl mig om din barndom." Hvis du nævnte din mor, ville hun spørge dig om din familie, selvom hun ikke anede, hvad familie egentlig er, eller hvorfor det er vigtigt for folk. Det var bare et sæt tricks, ikke en demonstration af ægte intelligens.

På trods af at Eliza slet ikke forstod folk, blev mange brugere narret af dialogerne med hende. Nogle brugte timer på at skrive sætninger på tastaturet, snakke på denne måde med Eliza, men misfortolke chatbot-trickene, forveksle papegøjens tale for hjælpsomme, oprigtige råd eller sympati.

Joseph Weisenbaum Skaber af Eliza.

Folk, der udmærket vidste, at de talte med en maskine, glemte hurtigt dette faktum, ligesom teaterelskere for en stund lod deres vantro til side og glemmer, at den handling, de er vidne til, ikke har ret til at blive kaldt ægte.

Elizas samtalepartnere krævede ofte tilladelse til en privat samtale med systemet og insisterede efter samtalen, på trods af alle mine forklaringer, på at maskinen virkelig forstod dem.

I andre tilfælde kan fejlen ved vurderingen af ægtheden være fatal i ordets bogstavelige forstand. I 2016 stolede en ejer af en automatiseret Tesla-bil så meget på den tilsyneladende sikkerhed i autopilottilstand, at han (ifølge historier) fordybede sig fuldstændigt i at se Harry Potter-filmene og lod bilen klare alt på egen hånd.

Alt gik godt – indtil det på et tidspunkt blev dårligt. Efter at have kørt hundreder eller endda tusinder af miles uden en ulykke kolliderede bilen (i enhver betydning af ordet) med en uventet forhindring: en hvid lastbil krydsede motorvejen, og Tesla skyndte sig lige ind under traileren og dræbte bilejeren på stedet. (Bilen så ud til at advare føreren flere gange om at tage kontrollen, men føreren så ud til at være for afslappet til at reagere hurtigt.)

Moralen i denne historie er klar: det faktum, at en enhed kan virke "smart" i et øjeblik eller to (og endda seks måneder) betyder slet ikke, at den virkelig er sådan, eller at den kan klare alle de omstændigheder, hvorunder en person ville reagere tilstrækkeligt.

Det andet problem kalder vi illusionen om hurtige fremskridt: at tage fejl af fremskridt inden for kunstig intelligens, forbundet med at løse lette problemer, for fremskridt, forbundet med at løse virkelig svære problemer. Dette skete for eksempel med IBM Watson-systemet: dets fremskridt i spillet Jeopardy! virkede meget lovende, men faktisk viste systemet sig at være meget længere fra at forstå menneskeligt sprog, end udviklerne havde regnet med.

Det er muligt, at DeepMinds AlphaGo-program vil følge samme vej. Go-spillet er ligesom skak et idealiseret informationsspil, hvor begge spillere kan se hele brættet til enhver tid og beregne konsekvenserne af træk med brute force.

I de fleste tilfælde, i det virkelige liv, ved ingen noget med fuldstændig sikkerhed; vores data er ofte ufuldstændige eller forvanskede.

Selv i de mest simple tilfælde er der stor usikkerhed. Når vi beslutter os for, om vi skal gå til lægen til fods eller tage metroen (da dagen er overskyet), ved vi ikke præcis, hvor lang tid det vil tage at vente på metrotoget, om toget sidder fast på vejen, om vi propper ind i vognen som sild i en tønde, eller vi bliver våde i regnen udenfor, uden at turde tage metroen, og hvordan lægen vil reagere på vores sene tid.

Vi arbejder altid med den information, vi har. Ved at spille Go med sig selv millioner af gange, har DeepMind AlphaGo-systemet aldrig beskæftiget sig med usikkerhed, det ved simpelthen ikke, hvilken mangel på information eller dets ufuldstændighed og inkonsekvens, for ikke at nævne kompleksiteten af menneskelig interaktion.

Der er en anden parameter, der gør, at tankespil som f.eks. går meget anderledes end den virkelige verden, og det har igen at gøre med data. Selv komplekse spil (hvis reglerne er strenge nok) kan modelleres næsten perfekt, så de kunstige intelligenssystemer, der spiller dem, nemt kan indsamle de enorme mængder data, de skal bruge for at træne. I tilfældet Go kan en maskine således simulere et spil med mennesker ved blot at spille mod sig selv; selvom systemet har brug for terabyte data, vil det selv skabe det.

Programmører kan således opnå fuldstændig rene simuleringsdata med små eller ingen omkostninger. Tværtimod, i den virkelige verden eksisterer der ikke helt rene data, det er umuligt at simulere dem (da spillereglerne konstant ændrer sig), og så meget desto sværere er det at indsamle mange gigabyte relevante data ved forsøg og fejl.

I virkeligheden har vi kun få forsøg på at teste forskellige strategier.

Vi er f.eks. ikke i stand til at gentage et lægebesøg 10 millioner gange, gradvist justere parametrene for beslutninger før hvert besøg, for dramatisk at forbedre vores adfærd med hensyn til transportvalg.

Hvis programmører ønsker at træne en robot til at hjælpe de ældre (f.eks. at hjælpe med at lægge syge mennesker i seng), vil hver bit af data være rigtige penge og virkelig menneskelig tid værd; der er ingen måde at indsamle alle de nødvendige data ved hjælp af simulationsspil. Selv crashtestdukker kan ikke erstatte rigtige mennesker.

Det er nødvendigt at indsamle data om rigtige ældre mennesker med forskellige karakteristika for senile bevægelser, om forskellige typer senge, forskellige typer pyjamas, forskellige typer huse, og her kan du ikke lave fejl, fordi at tabe en person selv på en afstand af flere centimeter fra sengen ville være en katastrofe. I dette tilfælde er det på spil, at et vist fremskridt (indtil videre er det mest elementære) på dette område er opnået ved hjælp af metoderne til smal kunstig intelligens. Der er udviklet computersystemer, der spiller næsten på niveau med de bedste menneskelige spillere i videospillene Dota 2 og Starcraft 2, hvor kun en del af spilverdenen til enhver tid vises for deltagerne, og dermed står hver spiller over for problem med manglende information - det med Clausewitz' lette hånd kaldes "det ukendtes tåge." De udviklede systemer forbliver dog stadig meget snævert fokuserede og ustabile i drift. For eksempel har AlphaStar-programmet, der spiller i Starcraft 2, kun lært én specifik race fra en lang række karakterer, og næsten ingen af disse udviklinger er spilbare som enhver anden race. Og der er selvfølgelig ingen grund til at tro, at de metoder, der bruges i disse programmer, er egnede til at lave vellykkede generaliseringer i meget mere komplekse virkelige situationer. virkelige liv. Som IBM ikke har opdaget én gang, men allerede to gange (først i skak, og derefter i Jeopardy!), garanterer succes i problemer fra en lukket verden slet ikke succes i en åben verden.

Den tredje cirkel af den beskrevne kløft er en overvurdering af pålidelighed. Igen og igen ser vi, at så snart folk ved hjælp af kunstig intelligens finder en løsning på et eller andet problem, der kan fungere uden fejl i et stykke tid, antager de automatisk, at med revision (og med en lidt større mængde data) alting vil fungere pålideligt.tid. Men det er ikke nødvendigvis tilfældet.

Vi tager igen biler uden chauffører. Det er relativt nemt at lave en demo af et autonomt køretøj, der korrekt kører ad tydeligt afmærket vognbane på en rolig vej; men folk har været i stand til at gøre dette i over et århundrede. Det er dog meget sværere at få disse systemer til at fungere under vanskelige eller uventede omstændigheder.

Som Missy Cummings, direktør for Humans and Autonomy Laboratory ved Duke University (og en tidligere jagerpilot fra den amerikanske flåde), fortalte os i en e-mail, er spørgsmålet ikke, hvor mange miles en førerløs bil kan køre uden en ulykke, men i omfanget. som disse biler er i stand til at tilpasse sig til skiftende situationer. Ifølge hendes Missy Cummings, e-mail til forfattere den 22. september 2018., moderne semi-autonome køretøjer "normalt kun opererer i et meget snævert område af forhold, som ikke siger noget om, hvordan de kan fungere under mindre end ideelle forhold."

At se fuldstændig pålidelig ud på millioner af testmil i Phoenix betyder ikke, at du præsterer godt under monsunen i Bombay.

Denne grundlæggende forskel mellem, hvordan autonome køretøjer opfører sig under ideelle forhold (såsom solrige dage på forstæder med flere spor), og hvad de kan gøre under ekstreme forhold, kan nemt blive et spørgsmål om succes og fiasko for en hel industri.

Med så lidt vægt på autonom kørsel under ekstreme forhold, og at den nuværende metodologi ikke har udviklet sig i retning af at sikre, at autopiloten vil fungere korrekt under forhold, der lige er begyndt at blive betragtet som virkelige, kan det meget vel snart stå klart, at milliarder af dollars er blevet brugt på metoder til at bygge selvkørende biler, der simpelthen ikke leverer menneskelignende kørepålidelighed. Det er muligt, at for at opnå det niveau af teknisk tillid, vi har brug for, kræves tilgange, der er fundamentalt forskellige fra de nuværende.

Og biler er blot et eksempel på mange lignende. I moderne forskning om kunstig intelligens er dens pålidelighed blevet globalt undervurderet. Dette skyldes til dels, at de fleste af den aktuelle udvikling på dette område involverer problemer, der er meget fejltolerante, såsom at anbefale annoncering eller promovere nye produkter.

Faktisk, hvis vi anbefaler dig fem typer produkter, og du kun kan lide tre af dem, vil der ikke ske nogen skade. Men i en række kritiske AI-applikationer for fremtiden, herunder førerløse biler, ældrepleje og sundhedsplanlægning, vil menneskelignende pålidelighed være afgørende.

Ingen vil købe en hjemmerobot, der trygt kan bære din ældre bedstefar i seng kun fire ud af fem gange.

Selv i de opgaver, hvor moderne kunstig intelligens teoretisk burde fremstå i det bedst mulige lys, opstår der jævnligt alvorlige fejl, som nogle gange ser meget sjove ud. Et typisk eksempel: computere har i princippet allerede lært ganske godt, hvordan man genkender, hvad der er (eller sker) i dette eller hint billede.

Nogle gange fungerer disse algoritmer glimrende, men ofte producerer de helt utrolige fejl. Hvis man viser et billede til et automatiseret system, der genererer billedtekster til fotografier af hverdagsscener, får man ofte et svar, der minder bemærkelsesværdigt om, hvad et menneske ville skrive; for eksempel for scenen nedenfor, hvor en gruppe mennesker spiller frisbee, giver Googles meget omtalte undertekstgenereringssystem det præcis det rigtige navn.

Fig 1.1. Gruppe af unge mennesker, der spiller frisbee (plausibel billedtekst, automatisk genereret af AI)
Fig 1.1. Gruppe af unge mennesker, der spiller frisbee (plausibel billedtekst, automatisk genereret af AI)

Men fem minutter senere kan du nemt få et helt absurd svar fra det samme system, som det for eksempel skete med dette vejskilt, hvor nogen satte klistermærker på: computeren kaldet Systemets skabere forklarede ikke, hvorfor denne fejl opstod, men sådanne tilfælde er ikke ualmindelige. Vi kan antage, at systemet i dette særlige tilfælde klassificerede (måske med hensyn til farve og tekstur) fotografiet som ligner de andre billeder (som det lærte) mærket som "et køleskab fyldt med masser af mad og drikkevarer." Naturligvis forstod computeren ikke (hvilket en person let kunne forstå), at en sådan inskription kun ville være passende i tilfælde af en stor rektangulær metalkasse med forskellige (og selv da ikke alle) genstande indeni. denne scene er "et køleskab med masser af mad og drikkevarer."

Ris. 1.2. Køleskab fyldt med masser af mad og drikkevarer (fuldstændig usandsynlig overskrift, skabt af samme system som ovenfor)
Ris. 1.2. Køleskab fyldt med masser af mad og drikkevarer (fuldstændig usandsynlig overskrift, skabt af samme system som ovenfor)

Ligeledes identificerer førerløse biler ofte korrekt, hvad de "ser", men nogle gange ser de ud til at overse det åbenlyse, som i tilfældet med Tesla, der jævnligt bragede ind i parkerede brandbiler eller ambulancer på autopilot. Blinde vinkler som disse kan være endnu mere farlige, hvis de er placeret i systemer, der styrer elnet eller er ansvarlige for at overvåge folkesundheden.

For at bygge bro mellem ambitioner og realiteterne inden for kunstig intelligens har vi brug for tre ting: en klar bevidsthed om de værdier, der er på spil i dette spil, en klar forståelse af, hvorfor moderne AI-systemer ikke udfører deres funktioner pålideligt nok, og, endelig en ny udviklingsstrategi maskintænkning.

Da indsatsen for kunstig intelligens er virkelig høj med hensyn til job, sikkerhed og samfundsstruktur, er der et presserende behov for, at vi alle - AI-professionelle, beslægtede erhverv, almindelige borgere og politikere - forstår tingenes sande tilstand. på dette felt for at lære kritisk vurdere niveauet og karakteren af udviklingen af nutidens kunstige intelligens.

Ligesom det er vigtigt for borgere, der er interesseret i nyheder og statistik at forstå, hvor nemt det er at vildlede folk med ord og tal, så er her et stadig vigtigere aspekt af forståelsen, så vi kan finde ud af, hvor kunstig intelligens er.kun reklame, men hvor er det ægte; hvad han er i stand til nu, og hvad han ikke ved hvordan og måske ikke vil lære.

Det vigtigste er at indse, at kunstig intelligens ikke er magi, men blot et sæt af teknikker og algoritmer, som hver har sine egne styrker og svagheder, er velegnet til nogle opgaver og ikke egnet til andre. En af hovedårsagerne til, at vi satte os for at skrive denne bog, er, at meget af det, vi læser om kunstig intelligens, forekommer os at være en absolut fantasi, der vokser ud af en ubegrundet tillid til den næsten magiske kraft af kunstig intelligens.

I mellemtiden har denne fiktion intet at gøre med moderne teknologiske muligheder. Desværre har diskussionen om AI blandt den brede offentlighed været og er stærkt præget af spekulationer og overdrivelser: De fleste mennesker aner ikke, hvor svært det er at skabe universel kunstig intelligens.

Lad os afklare yderligere diskussion. Selvom afklaring af realiteterne forbundet med AI vil kræve seriøs kritik fra os, er vi selv på ingen måde modstandere af kunstig intelligens, vi kan virkelig godt lide denne side af teknologiske fremskridt. Vi har levet en væsentlig del af vores liv som professionelle inden for dette felt, og vi ønsker, at det udvikler sig så hurtigt som muligt.

Den amerikanske filosof Hubert Dreyfus skrev engang en bog om, hvilke højder kunstig intelligens efter hans mening aldrig kan nå. Det er ikke det, denne bog handler om. Den fokuserer til dels på, hvad AI i øjeblikket ikke kan, og hvorfor det er vigtigt at forstå det, men en væsentlig del af det taler om, hvad der kunne gøres for at forbedre computertænkningen og udvide det til områder, hvor det nu har svært ved at gøre først.

Vi ønsker ikke, at kunstig intelligens forsvinder; vi ønsker, at den i øvrigt forbedres radikalt, så vi virkelig kan regne med den og med dens hjælp løse menneskehedens mange problemer. Vi har en masse kritik af den nuværende tilstand af kunstig intelligens, men vores kritik er en manifestation af kærlighed til den videnskab, vi laver, ikke en opfordring til at give op og opgive alt.

Kort sagt tror vi på, at kunstig intelligens for alvor kan transformere vores verden; men vi mener også, at mange af de grundlæggende antagelser om AI skal ændres, før vi kan tale om reelle fremskridt. Vores foreslåede "nulstilling" af kunstig intelligens er slet ikke en grund til at sætte en stopper for forskningen (selvom nogle måske forstår vores bog i præcis denne ånd), men snarere en diagnose: hvor sidder vi fast nu, og hvordan kommer vi ud af dagens situation.

Vi tror på, at den bedste måde at komme videre på kan være at se indad og se vores eget sinds struktur i øjnene.

Virkelig intelligente maskiner behøver ikke at være nøjagtige kopier af mennesker, men enhver, der ser på kunstig intelligens ærligt, vil se, at der stadig er meget at lære af mennesker, især fra små børn, som på mange måder er langt overlegne i forhold til maskiner i deres evne til at absorbere og forstå nye begreber.

Medicinske forskere karakteriserer ofte computere som "overmenneskelige" (på den ene eller anden måde) systemer, men den menneskelige hjerne er stadig langt overlegen sine silicium-modstykker i mindst fem aspekter: vi kan forstå sprog, vi kan forstå verden, vi kan fleksibelt tilpasse sig nye omstændigheder, kan vi hurtigt lære nye ting (selv uden store mængder data) og kan ræsonnere over for ufuldstændige og endda modstridende informationer. På alle disse fronter er moderne kunstig intelligens-systemer håbløst bagud mennesker.

Genstart af kunstig intelligens
Genstart af kunstig intelligens

Artificial Intelligence: Genstart vil interessere folk, der ønsker at forstå moderne teknologier og forstå, hvordan og hvornår en ny generation af AI kan gøre vores liv bedre.

Anbefalede: