Mitä tekoäly voi todella tehdä nykyään
Mitä tekoäly voi todella tehdä nykyään
Anonim

Spoilerivaroitus: Koneiden kapinaan on vielä pitkä aika.

Mitä tekoäly voi todella tehdä nykyään
Mitä tekoäly voi todella tehdä nykyään

Kun Elon Musk esittelee humanoidirobotin Tesla Botin, näyttää siltä, että uusi tieteellinen vallankumous on aivan nurkan takana. Vielä vähän – ja tekoäly (AI) ohittaa ihmisen, ja koneet korvaavat meidät työssä. Professori Gary Marcus ja Ernest Davis, jotka molemmat ovat tunnettuja tekoälyasiantuntijoita, eivät kuitenkaan pidä kiirettä tällaisiin johtopäätöksiin.

Artificial Intelligence Rebootissa tutkijat selittävät, miksi moderni tekniikka on kaukana ihanteellisesta. Kustantajan "Alpina PRO" luvalla Lifehacker julkaisee otteen ensimmäisestä luvusta.

Tässä vaiheessa kunnianhimomme ja tekoälyn todellisuuden välillä on valtava kuilu – todellinen kuilu. Tämä kuilu on syntynyt kolmen erityisen ongelman ratkaisemattomuudesta, joista jokainen on käsiteltävä rehellisesti.

Ensimmäinen näistä on se, jota kutsumme herkkäuskoisuudeksi, joka perustuu siihen tosiasiaan, että me ihmiset emme ole oikein oppineet erottamaan ihmisiä ja koneita, ja tämä tekee meidät helposti huijatuksi. Pidämme älykkyyttä tietokoneiden ansioksi, koska olemme itse kehittyneet ja eläneet ihmisten keskuudessa, jotka suurelta osin perustavat toimintansa abstraktioihin, kuten ideoihin, uskomuksiin ja haluihin. Koneiden käyttäytyminen on usein pinnallisesti samanlaista kuin ihmisten, joten määritämme koneille nopeasti samantyyppiset perusmekanismit, vaikka koneissa niitä ei olisikaan.

Emme voi olla ajattelematta koneita kognitiivisin termein ("Tietokoneeni luulee, että olen poistanut tiedostoni"), riippumatta siitä, kuinka yksinkertaisia sääntöjä koneet todella noudattavat. Mutta johtopäätökset, jotka oikeuttavat itsensä, kun niitä sovelletaan ihmisiin, voivat olla täysin vääriä, kun niitä sovelletaan tekoälyohjelmiin. Sosiaalipsykologian perussääntöä kunnioittaen kutsumme tätä perustavanlaatuiseksi validiteettivirheeksi.

Yksi tämän virheen varhaisimmista tapauksista tapahtui 1960-luvun puolivälissä, kun Eliza-niminen chatbot vakuutti jotkut ihmiset ymmärtävänsä todella heidän kertomansa asiat. Itse asiassa Eliza vain poimi avainsanoja, toisti viimeisen asian, jonka henkilö sanoi hänelle, ja umpikujatilanteessa hän turvautui tavallisiin keskustelutemppuihin, kuten "Kerro minulle lapsuudestasi". Jos mainitsit äitisi, hän kysyisi sinulta perheestäsi, vaikka hänellä ei ollut aavistustakaan, mitä perhe todella on tai miksi se on tärkeä ihmisille. Se oli vain joukko temppuja, ei todellisen älykkyyden osoitus.

Huolimatta siitä, että Eliza ei ymmärtänyt ihmisiä ollenkaan, monet käyttäjät huijasivat hänen kanssaan käydyistä keskusteluista. Jotkut käyttivät tuntikausia kirjoittaen lauseita näppäimistöllä, puhuen tällä tavalla Elizan kanssa, mutta tulkinneet chatbotin temppuja väärin, pitäen papukaijan puhetta hyödyllisinä, vilpittömänä neuvona tai sympatiana.

Joseph Weisenbaum Elizan luoja.

Ihmiset, jotka tiesivät hyvin puhuvansa koneelle, unohtivat pian tämän tosiasian, aivan kuten teatterin ystävät heittivät hetkeksi syrjään epäuskonsa ja unohtavat, ettei heidän todistamansa tekoa ole oikeutta kutsua todeksi.

Elizan keskustelukumppanit vaativat usein lupaa yksityiseen keskusteluun järjestelmän kanssa ja keskustelun jälkeen väittivät kaikista selityksistäni huolimatta, että kone todella ymmärsi heidät.

Muissa tapauksissa virhe aitouden arvioinnissa voi olla kohtalokas sanan kirjaimellisessa merkityksessä. Vuonna 2016 yksi automatisoidun Tesla-auton omistaja luotti niin paljon autopilottitilan näennäiseen turvallisuuteen, että hän (tarinoiden mukaan) uppoutui Harry Potter -elokuvien katseluun jättäen auton tekemään kaiken itse.

Kaikki meni hyvin - kunnes jossain vaiheessa se meni huonosti. Ajettuaan satoja tai jopa tuhansia kilometrejä ilman onnettomuutta, auto törmäsi (sanan jokaisessa merkityksessä) odottamattomaan esteeseen: valkoinen kuorma-auto ylitti valtatien ja Tesla syöksyi suoraan perävaunun alle tappaen auton omistajan paikalla.. (Auto näytti varoittavan kuljettajaa useita kertoja ottamaan hallinnan, mutta kuljettaja näytti olevan liian rento reagoidakseen nopeasti.)

Tämän tarinan moraali on selvä: se, että laite saattaa hetken tai kaksi (ja jopa kuusi kuukautta) vaikuttaa "älykkäältä" ei tarkoita ollenkaan, että se todella olisi niin tai että se selviäisi kaikissa olosuhteissa, joissa henkilö reagoisi asianmukaisesti.

Toinen ongelma, jota kutsumme nopean edistymisen illuusioksi: erehdytään tekoälyn edistymiseen, joka liittyy helppojen ongelmien ratkaisemiseen, edistykseksi, joka liittyy todella vaikeiden ongelmien ratkaisemiseen. Tämä tapahtui esimerkiksi IBM Watson -järjestelmän kanssa: sen edistyminen pelissä Jeopardy! vaikutti erittäin lupaavalta, mutta itse asiassa järjestelmä osoittautui paljon kauemmaksi ihmiskielen ymmärtämisestä kuin kehittäjät olivat odottaneet.

On mahdollista, että DeepMindin AlphaGo-ohjelma seuraa samaa polkua. Go-peli, kuten shakki, on idealisoitu tietopeli, jossa molemmat pelaajat voivat milloin tahansa nähdä koko laudan ja laskea raa'alla voimalla liikkeiden seuraukset.

Useimmissa tapauksissa tosielämässä kukaan ei tiedä mitään täydellisellä varmuudella; tietomme ovat usein epätäydellisiä tai vääristyneitä.

Jopa yksinkertaisimmissa tapauksissa on paljon epävarmuutta. Kun päätämme, mennäänkö lääkäriin kävellen vai metrolla (koska päivä on pilvinen), emme tiedä tarkalleen kuinka kauan metrojunan odottaminen kestää, jääkö juna jumiin tielle, onko tunkeudumme vaunuihin kuin silliä tynnyrissä tai kastumme ulkona sateessa, emme uskalla mennä metroon, ja miten lääkäri reagoi myöhästymiseemme.

Työskentelemme aina sen tiedon kanssa, joka meillä on. Pelaamalla Go itsellään miljoonia kertoja, DeepMind AlphaGo -järjestelmä ei ole koskaan käsitellyt epävarmuutta, se ei yksinkertaisesti tiedä mitä on tiedon puute tai sen epätäydellisyys ja epäjohdonmukaisuus, puhumattakaan ihmisten välisen vuorovaikutuksen monimutkaisuudesta.

On toinen parametri, joka tekee mielipeleistä hyvin erilaisia kuin todellisessa maailmassa, ja tämä taas liittyy dataan. Monimutkaisetkin pelit (jos säännöt ovat riittävän tiukat) voidaan mallintaa lähes täydellisesti, joten niitä pelaavat tekoälyjärjestelmät voivat helposti kerätä valtavat tietomäärät, joita he tarvitsevat harjoitteluun. Siten Go:n tapauksessa kone voi simuloida peliä ihmisten kanssa yksinkertaisesti pelaamalla itseään vastaan; vaikka järjestelmä tarvitsee teratavuja dataa, se luo sen itse.

Ohjelmoijat voivat siten saada täysin puhdasta simulaatiodataa vähällä tai ilman kustannuksia. Päinvastoin, todellisessa maailmassa ei ole olemassa täysin puhdasta dataa, sitä on mahdotonta simuloida (koska pelin säännöt muuttuvat jatkuvasti), ja sitäkin vaikeampaa on kerätä monia gigatavuja asiaankuuluvaa dataa kokeilulla. ja virhe.

Todellisuudessa meillä on vain muutama yritys testata erilaisia strategioita.

Emme esimerkiksi pysty toistamaan lääkärikäyntiä 10 miljoonaa kertaa, säätämällä asteittain päätösparametreja ennen jokaista käyntiä parantaaksemme dramaattisesti käyttäytymistämme kulkuneuvojen valinnassa.

Jos ohjelmoijat haluavat kouluttaa robotin auttamaan vanhuksia (esimerkiksi auttamaan sairaiden ihmisten nukkumisessa), jokainen data on oikean rahan ja todellisen ihmisajan arvoista; ei ole mahdollista kerätä kaikkea tarvittavaa dataa simulaatiopeleillä. Edes törmäystestin nuket eivät voi korvata oikeita ihmisiä.

On tarpeen kerätä tietoja todellisista iäkkäistä ihmisistä, joilla on erilaiset seniililiikkeet, erityyppisistä sängyistä, erityyppisistä pyjamista, erityyppisistä taloista, ja tässä ei voi tehdä virheitä, koska ihmisen pudottaminen jopa usean etäisyyden päähän. senttimetrin päässä sängystä olisi katastrofi. Tässä tapauksessa vaakalaudalla on tietty edistys (toistaiseksi alkeellisin) tällä alueella, joka on saavutettu kapean tekoälyn menetelmillä. On kehitetty tietokonejärjestelmiä, jotka pelaavat lähes parhaiden ihmispelaajien tasolla videopeleissä Dota 2 ja Starcraft 2, joissa kulloinkin vain osa pelimaailmasta näytetään osallistujille ja siten jokainen pelaaja kohtaa tiedon puutteen ongelma - jota Clausewitzin kevyellä kädellä kutsutaan "tuntemattoman sumuksi". Kehitetyt järjestelmät ovat kuitenkin edelleen hyvin suppeasti fokusoituneita ja epävakaita toiminnassa. Esimerkiksi AlphaStar-ohjelma, joka pelataan Starcraft 2:ssa, on oppinut vain yhden tietyn rodun useilta erilaisilta hahmoilta, eikä melkein mikään näistä kehitysvaihtoehdoista ole pelattavissa kuten mikään muu rotu. Eikä tietenkään ole mitään syytä uskoa, että näissä ohjelmissa käytetyt menetelmät soveltuvat onnistuneiden yleistysten tekemiseen paljon monimutkaisemmissa tosielämän tilanteissa. tosielämää. Kuten IBM on havainnut ei kerran, vaan jo kahdesti (ensin shakissa ja sitten Jeopardyssa!), suljetun maailman ongelmissa menestyminen ei takaa menestystä avoimessa maailmassa.

Kuvatun kuilun kolmas ympyrä on luotettavuuden yliarviointi. Toistuvasti näemme, että heti kun ihmiset tekoälyn avulla löytävät ratkaisun johonkin ongelmaan, joka voi toimia hetken ilman epäonnistumisia, he automaattisesti olettavat, että revisiolla (ja hieman suuremmalla datamäärällä) kaikki toimii luotettavasti. aika. Mutta näin ei välttämättä ole.

Otamme jälleen autot ilman kuljettajaa. On suhteellisen helppoa luoda demo autonomisesta ajoneuvosta, joka ajaa oikein selkeästi merkittyä kaistaa pitkin rauhallisella tiellä; ihmiset ovat kuitenkin pystyneet tekemään tämän yli vuosisadan. On kuitenkin paljon vaikeampaa saada nämä järjestelmät toimimaan vaikeissa tai odottamattomissa olosuhteissa.

Kuten Duken yliopiston Humans and Autonomy Laboratoryn johtaja (ja entinen Yhdysvaltain laivaston hävittäjälentäjä) Missy Cummings kertoi meille sähköpostissa, kysymys ei ole siitä, kuinka monta mailia kuljettajaton auto voi kulkea ilman onnettomuutta. joihin nämä autot pystyvät sopeutumaan muuttuviin tilanteisiin. Hänen Missy Cummingsin mukaan sähköposti kirjoittajille 22. syyskuuta 2018., nykyaikaiset puoliautonomiset ajoneuvot "toimivat yleensä vain hyvin kapealla alueella, mikä ei kerro mitään siitä, kuinka ne voivat toimia vähemmän kuin ihanteellisissa olosuhteissa."

Täysin luotettava näyttäminen miljoonilla testimaileilla Phoenixissa ei tarkoita hyvää suorituskykyä Bombayn monsuunien aikana.

Tämä perustavanlaatuinen ero itseohjautuvien ajoneuvojen käyttäytymisen ihanteellisissa olosuhteissa (kuten aurinkoisina päivinä esikaupunkien monikaistaisilla teillä) ja sen välillä, mitä ne voivat tehdä äärimmäisissä olosuhteissa, voi helposti muodostua onnistumisen ja epäonnistumisen aiheeksi koko toimialalle.

Kun itseohjautuvaa ajamista äärimmäisissä olosuhteissa on niin vähän korostettu ja nykyiset menetelmät eivät ole kehittyneet siihen suuntaan, että autopilotti toimii oikein olosuhteissa, joita vasta aletaan harkita todellisiksi, saattaa pian tulla selväksi, että miljardeja dollareita on käytetty menetelmiin rakentaa itseohjautuvia autoja, jotka eivät yksinkertaisesti pysty tarjoamaan ihmisen kaltaista ajovarmuutta. On mahdollista, että tarvitsemamme teknisen luottamuksen tason saavuttamiseksi tarvitaan lähestymistapoja, jotka poikkeavat olennaisesti nykyisistä.

Ja autot ovat vain yksi esimerkki monista vastaavista. Nykyaikaisessa tekoälytutkimuksessa sen luotettavuus on maailmanlaajuisesti aliarvioitu. Tämä johtuu osittain siitä, että suurin osa tämän alan nykyisestä kehityksestä liittyy ongelmiin, jotka ovat erittäin virhesietoisia, kuten mainonnan suositteleminen tai uusien tuotteiden edistäminen.

Itse asiassa, jos suosittelemme sinulle viittä erilaista tuotetta ja pidät niistä vain kolmesta, mitään haittaa ei tapahdu. Mutta useissa tulevaisuuden kriittisissä tekoälysovelluksissa, kuten kuljettajattomissa autoissa, vanhustenhoidossa ja terveydenhuollon suunnittelussa, ihmisen kaltainen luotettavuus on kriittistä.

Kukaan ei osta kotirobottia, joka kantaa iäkkään isoisäsi turvallisesti sänkyyn vain neljä kertaa viidestä.

Jopa niissä tehtävissä, joissa nykyaikaisen tekoälyn pitäisi teoriassa esiintyä parhaassa mahdollisessa valossa, vakavia epäonnistumisia tapahtuu säännöllisesti, joskus hyvinkin hauskoilta näyttäen. Tyypillinen esimerkki: tietokoneet ovat periaatteessa jo oppineet varsin hyvin tunnistamaan, mitä tässä tai tuossa kuvassa on (tai tapahtuu).

Joskus nämä algoritmit toimivat hyvin, mutta usein ne aiheuttavat täysin uskomattomia virheitä. Jos näytät kuvan automaattiselle järjestelmälle, joka luo kuvatekstejä arkipäivän kohtauksista otettuihin valokuviin, saat usein vastauksen, joka on huomattavan samanlainen kuin mitä ihminen kirjoittaisi; Esimerkiksi alla olevalle kohtaukselle, jossa joukko ihmisiä pelaa frisbeetä, Googlen paljon julkisuutta saanut tekstitysjärjestelmä antaa sille täsmälleen oikean nimen.

Kuva 1.1. Ryhmä nuoria pelaamassa frisbeetä (todennäköinen kuvateksti, tekoälyn automaattisesti luoma)
Kuva 1.1. Ryhmä nuoria pelaamassa frisbeetä (todennäköinen kuvateksti, tekoälyn automaattisesti luoma)

Mutta viisi minuuttia myöhemmin voit helposti saada täysin absurdin vastauksen samasta järjestelmästä, kuten tapahtui esimerkiksi tällä liikennemerkillä, johon joku kiinnitti tarroja: Järjestelmän luojat eivät selittäneet, miksi tämä virhe tapahtui., mutta tällaiset tapaukset eivät ole harvinaisia. Voimme olettaa, että järjestelmä tässä nimenomaisessa tapauksessa luokitteli (ehkä värin ja koostumuksen suhteen) valokuvan samanlaiseksi kuin muut kuvat (joista se oppi), jotka on merkitty "jääkaappiin, joka on täynnä ruokaa ja juomia". Tietenkin tietokone ei ymmärtänyt (jonka henkilö voi helposti ymmärtää), että tällainen merkintä olisi sopiva vain suuren suorakaiteen muotoisen metallilaatikon tapauksessa, jossa on erilaisia (ja silloinkaan ei kaikkia) esineitä. tämä kohtaus on "jääkaappi, jossa on paljon ruokaa ja juomaa".

Riisi. 1.2. Jääkaappi täynnä ruokaa ja juomaa (täysin epäuskottava otsikko, luotu samalla järjestelmällä kuin yllä)
Riisi. 1.2. Jääkaappi täynnä ruokaa ja juomaa (täysin epäuskottava otsikko, luotu samalla järjestelmällä kuin yllä)

Samoin kuljettajattomat autot tunnistavat usein oikein näkemänsä, mutta joskus ne näyttävät jättävän huomiotta ilmeisen, kuten Teslan tapauksessa, joka törmäsi säännöllisesti pysäköityihin paloautoihin tai ambulansseihin automaattiohjauksella. Tällaiset kuolleet kulmat voivat olla vieläkin vaarallisempia, jos ne sijaitsevat järjestelmissä, jotka ohjaavat sähköverkkoja tai ovat vastuussa kansanterveyden valvonnasta.

Kunnianhimon ja tekoälyn realiteetin välisen kuilun kuromiseksi umpeen tarvitsemme kolme asiaa: selkeää tietoisuutta tässä pelissä olevista arvoista, selkeää ymmärrystä siitä, miksi nykyaikaiset tekoälyjärjestelmät eivät suorita toimintojaan riittävän luotettavasti, ja Lopuksi uusi kehitysstrategia koneajattelu.

Koska tekoälyn panokset ovat todella korkeat työpaikkojen, turvallisuuden ja yhteiskunnan rakenteen kannalta, meidän kaikkien - tekoälyn ammattilaisten, lähiammattien, tavallisten kansalaisten ja poliitikkojen - on kiireellisesti ymmärrettävä asioiden todellinen tila. tällä alalla oppiakseen kriittisesti arvioimaan nykypäivän tekoälyn kehityksen tasoa ja luonnetta.

Aivan kuten uutisista ja tilastoista kiinnostuneiden kansalaisten on tärkeää ymmärtää, kuinka helppoa on johtaa ihmisiä harhaan sanoilla ja numeroilla, niin myös tässä on yhä tärkeämpi ymmärryksen puoli, jotta voimme selvittää missä tekoäly on. vain mainontaa, mutta missä se on totta; mitä hän pystyy tekemään nyt ja mitä hän ei osaa eikä ehkä tule oppimaan.

Tärkeintä on ymmärtää, että tekoäly ei ole taikuutta, vaan vain joukko tekniikoita ja algoritmeja, joilla jokaisella on omat vahvuutensa ja heikkoutensa, sopii joihinkin tehtäviin ja ei sovellu muihin. Yksi tärkeimmistä syistä, miksi päätimme kirjoittaa tämän kirjan, on se, että suuri osa tekoälystä lukemistamme tuntuu olevan ehdotonta fantasiaa, joka on kasvanut perusteettomasta luottamuksesta tekoälyn melkein maagiseen voimaan.

Samaan aikaan tällä fiktiolla ei ole mitään tekemistä nykyaikaisten teknisten valmiuksien kanssa. Valitettavasti suuren yleisön keskuudessa käytävään tekoälykeskusteluun on vaikuttanut ja on vahvasti vaikuttanut spekulointi ja liioittelua: useimmat ihmiset eivät tiedä kuinka vaikeaa on luoda universaalia tekoälyä.

Selvennetään vielä keskustelua. Vaikka tekoälyyn liittyvien realiteettien selvittäminen vaatii meiltä vakavaa kritiikkiä, emme itse ole missään nimessä tekoälyn vastustajia, vaan pidämme todella tekniikan kehityksen tältä puolelta. Olemme eläneet merkittävän osan elämästämme alan ammattilaisina ja haluamme sen kehittyvän mahdollisimman nopeasti.

Amerikkalainen filosofi Hubert Dreyfus kirjoitti kerran kirjan siitä, mihin korkeuksiin hänen mielestään tekoäly ei koskaan pääse. Tästä ei tässä kirjassa ole kyse. Se keskittyy osittain siihen, mihin tekoäly ei tällä hetkellä pysty ja miksi sen ymmärtäminen on tärkeää, mutta merkittävä osa siitä puhuu siitä, mitä voitaisiin tehdä tietokoneajattelun parantamiseksi ja laajentamiseksi alueille, joilla sen on nyt vaikea tehdä ensin.

Emme halua tekoälyn katoavan; haluamme sen parantavan lisäksi radikaalisti, jotta voimme todella luottaa siihen ja ratkaista sen avulla ihmiskunnan monet ongelmat. Meillä on paljon kritiikkiä tekoälyn nykytilasta, mutta kritiikkimme on osoitus rakkaudesta tekemäämme tiedettä kohtaan, ei kehotusta luovuttaa ja hylätä kaikki.

Lyhyesti sanottuna uskomme, että tekoäly voi todellakin muuttaa maailmaamme vakavasti; mutta uskomme myös, että monien tekoälyä koskevien perusoletusten on muututtava, ennen kuin voimme puhua todellisesta edistymisestä. Ehdottamamme tekoälyn "resetointi" ei ole ollenkaan syy lopettaa tutkimusta (vaikka jotkut saattavat ymmärtää kirjamme juuri tässä hengessä), vaan pikemminkin diagnoosi: missä olemme nyt jumissa ja miten selviämme siitä. tämän päivän tilanne.

Uskomme, että paras tapa edetä voi olla katsoa sisäänpäin, kohdaten oman mielemme rakenteen.

Todella älykkäiden koneiden ei tarvitse olla tarkkoja jäljennöksiä ihmisistä, mutta jokainen, joka tarkastelee tekoälyä rehellisesti, huomaa, että ihmisiltä on vielä paljon opittavaa, erityisesti pieniltä lapsilta, jotka ovat monin tavoin paljon parempia kuin koneet. heidän kykynsä omaksua ja ymmärtää uusia käsitteitä.

Lääketieteilijät luonnehtivat tietokoneita usein "yli-inhimillisiksi" (tavalla tai toisella) järjestelmiksi, mutta ihmisaivot ovat silti huomattavasti parempia kuin sen piivastikkeet ainakin viidessä suhteessa: ymmärrämme kieltä, voimme ymmärtää maailmaa, voimme joustavasti. sopeutuessamme uusiin olosuhteisiin, voimme oppia nopeasti uusia asioita (jopa ilman suuria tietomääriä) ja voimme järkeillä epätäydellisten ja jopa ristiriitaisten tietojen edessä. Kaikilla näillä rintamilla nykyaikaiset tekoälyjärjestelmät ovat toivottomasti ihmisten takana.

Tekoälyn uudelleenkäynnistys
Tekoälyn uudelleenkäynnistys

Tekoäly: Uudelleenkäynnistys kiinnostaa ihmisiä, jotka haluavat ymmärtää modernia teknologiaa ja ymmärtää, kuinka ja milloin uuden sukupolven tekoäly voi parantaa elämäämme.

Suositeltava: