Què pot fer la intel·ligència artificial avui en dia
Què pot fer la intel·ligència artificial avui en dia
Anonim

Alerta de spoiler: encara falta molt de temps per a l'aixecament de les màquines.

Què pot fer la intel·ligència artificial avui en dia
Què pot fer la intel·ligència artificial avui en dia

Quan Elon Musk presenta el robot humanoide Tesla Bot, sembla que una nova revolució científica està a la volta de la cantonada. Una mica més, i la intel·ligència artificial (IA) superarà l'home i les màquines ens substituiran a la feina. Tanmateix, es demana als professors Gary Marcus i Ernest Davis, tots dos experts en IA reconeguts, que no es precipitin en aquestes conclusions.

A Artificial Intelligence Reboot, els investigadors expliquen per què la tecnologia moderna està lluny de ser ideal. Amb el permís de l'editorial "Alpina PRO" Lifehacker publica un fragment del primer capítol.

En aquest punt, hi ha una gran bretxa -un autèntic abisme- entre la nostra ambició i la realitat de la intel·ligència artificial. Aquest avenc ha sorgit a causa de la manca de resolució de tres problemes concrets, cadascun dels quals s'ha de tractar honestament.

El primer d'ells és el que anomenem credulitat, que es basa en el fet que els humans no hem après realment a distingir entre humans i màquines, i això fa que sigui fàcil enganyar-nos. Atribuïm intel·ligència als ordinadors perquè nosaltres mateixos hem evolucionat i hem viscut entre persones que basen en gran part les seves accions en abstraccions com idees, creences i desitjos. El comportament de les màquines sovint és superficialment semblant al comportament dels humans, per la qual cosa assignem ràpidament a les màquines el mateix tipus de mecanismes bàsics, encara que les màquines no en tinguin.

No podem deixar de pensar en les màquines en termes cognitius (“El meu ordinador creu que he suprimit el meu fitxer”), per molt senzilles que siguin les regles que segueixen les màquines. Però les conclusions que es justifiquen quan s'apliquen als humans poden ser completament errònies quan s'apliquen a programes d'intel·ligència artificial. En deferència a un principi bàsic de la psicologia social, anomenem aquest error fonamental de validesa.

Un dels primers casos d'aquest error es va produir a mitjans dels anys 60, quan un chatbot anomenat Eliza va convèncer algunes persones que realment entenia les coses que li deien. De fet, l'Eliza només va recollir paraules clau, va repetir l'últim que li va dir la persona i, en una situació sense sortida, va recórrer a trucs de conversa estàndard com "Parla'm de la teva infància". Si menciones la teva mare, et preguntaria sobre la teva família, encara que no tenia ni idea de què és realment la família ni per què és important per a la gent. Era només un conjunt de trucs, no una demostració de la veritable intel·ligència.

Malgrat que Eliza no entenia gens a la gent, molts usuaris es van deixar enganyar pels diàlegs amb ella. Alguns es passaven hores escrivint frases al teclat, parlant d'aquesta manera amb l'Eliza, però malinterpretant els trucs del chatbot, confonent el discurs del lloro amb consells útils i sincers o simpatia.

Joseph Weisenbaum Creador d'Eliza.

La gent que sabia molt bé que parlava amb una màquina aviat va oblidar aquest fet, de la mateixa manera que els amants del teatre deixen de banda una estona la seva incredulitat i obliden que l'acció que assisteixen no té dret a ser anomenada real.

Els interlocutors de l'Eliza sovint demanaven permís per a una conversa privada amb el sistema i després de la conversa insistien, malgrat totes les meves explicacions, que la màquina els entenia realment.

En altres casos, l'error en la valoració de l'autenticitat pot ser fatal en el sentit literal de la paraula. El 2016, un propietari d'un cotxe Tesla automatitzat va confiar tant en l'aparent seguretat del mode de pilot automàtic que (segons les històries) es va submergir completament en veure les pel·lícules de Harry Potter, deixant que el cotxe ho fes tot sol.

Tot va anar bé, fins que en algun moment es va posar malament. Després d'haver conduït centenars o fins i tot milers de quilòmetres sense cap accident, el cotxe va xocar (en tots els sentits de la paraula) amb un obstacle inesperat: un camió blanc va creuar l'autopista i Tesla es va precipitar just sota el remolc, matant el propietari del cotxe a l'acte.. (El cotxe semblava advertir al conductor diverses vegades perquè prengués el control, però el conductor semblava estar massa relaxat per reaccionar ràpidament.)

La moral d'aquesta història és clara: el fet que un dispositiu pugui semblar "intel·ligent" durant un moment o dos (i fins i tot sis mesos) no vol dir en absolut que sigui així o que pugui fer front a totes les circumstàncies en què una persona reaccionaria adequadament.

El segon problema l'anomenem la il·lusió del progrés ràpid: confondre el progrés de la intel·ligència artificial, associat a la resolució de problemes fàcils, amb el progrés, associat a la resolució de problemes realment difícils. Això, per exemple, va passar amb el sistema IBM Watson: el seu progrés en el joc Jeopardy! semblava molt prometedor, però de fet el sistema va resultar molt més lluny de comprendre el llenguatge humà del que havien previst els desenvolupadors.

És possible que el programa AlphaGo de DeepMind segueixi el mateix camí. El joc de go, com els escacs, és un joc d'informació idealitzat on tots dos jugadors poden veure tot el tauler en qualsevol moment i calcular les conseqüències dels moviments per força bruta.

En la majoria dels casos, a la vida real, ningú sap res amb total certesa; les nostres dades sovint estan incompletes o distorsionades.

Fins i tot en els casos més senzills, hi ha molta incertesa. Quan decidim anar al metge a peu o agafar el metro (ja que el dia està ennuvolat), no sabem exactament quant de temps trigarà a esperar el metro, si el tren s'encalla a la carretera, si ens amuntegarem al carruatge com arengada en un barril o ens mullarem sota la pluja de fora, sense atrevir-nos a agafar el metro, i com reaccionarà el metge davant la nostra tarda.

Treballem sempre amb la informació que tenim. Jugant a Go amb si mateix milions de vegades, el sistema DeepMind AlphaGo mai ha tractat la incertesa, simplement no sap quina manca d'informació o la seva incompletitud i inconsistència, per no parlar de les complexitats de la interacció humana.

Hi ha un altre paràmetre que fa que els jocs mentals siguin molt diferents del món real, i això de nou té a veure amb les dades. Fins i tot els jocs complexos (si les regles són prou estrictes) es poden modelar gairebé perfectament, de manera que els sistemes d'intel·ligència artificial que els juguen poden recollir fàcilment les grans quantitats de dades que necessiten per entrenar. Així, en el cas de Go, una màquina pot simular un joc amb persones simplement jugant contra si mateixa; encara que el sistema necessiti terabytes de dades, les crearà ell mateix.

Així, els programadors poden obtenir dades de simulació completament netes amb poc o cap cost. Al contrari, al món real, les dades perfectament netes no existeixen, és impossible simular-les (ja que les regles del joc canvien constantment), i encara més difícil és recollir molts gigabytes de dades rellevants per prova. i error.

En realitat, només tenim uns quants intents per provar diferents estratègies.

No som capaços, per exemple, de repetir una visita al metge 10 milions de vegades, ajustant progressivament els paràmetres de decisions abans de cada visita, per tal de millorar dràsticament el nostre comportament en l'elecció del transport.

Si els programadors volen entrenar un robot per ajudar a la gent gran (per exemple, per ajudar a dormir els malalts), cada dada valdrà diners reals i temps humà real; no hi ha manera de recollir totes les dades necessàries mitjançant jocs de simulació. Fins i tot els maniquís de prova de xoc no poden substituir persones reals.

Cal recollir dades sobre persones grans reals amb diferents característiques de moviments senils, sobre diferents tipus de llits, diferents tipus de pijames, diferents tipus de cases, i aquí no es pot equivocar, perquè deixar caure una persona fins i tot a una distància de diverses. centímetres del llit seria un desastre. En aquest cas, està en joc un cert progrés (fins ara el més elemental) en aquest àmbit que s'ha aconseguit mitjançant els mètodes de la intel·ligència artificial estreta. S'han desenvolupat sistemes informàtics que juguen gairebé al nivell dels millors jugadors humans dels videojocs Dota 2 i Starcraft 2, on en un moment donat només es mostra als participants una part del món del joc i, així, cada jugador s'enfronta al problema de manca d'informació - que amb la mà lleugera de Clausewitz s'anomena "la boira del desconegut". No obstant això, els sistemes desenvolupats segueixen sent molt enfocats i inestables en funcionament. Per exemple, el programa AlphaStar que juga a Starcraft 2 només ha après una carrera específica d'una gran varietat de personatges, i gairebé cap d'aquests desenvolupaments es pot jugar com qualsevol altra raça. I, per descomptat, no hi ha cap raó per creure que els mètodes utilitzats en aquests programes siguin adequats per fer generalitzacions reeixides en situacions de la vida real molt més complexes. vides reals. Com IBM ha descobert no una, sinó ja dues vegades (primer als escacs, i després a Jeopardy!), l'èxit en problemes d'un món tancat no garanteix en absolut l'èxit en un món obert.

El tercer cercle de l'avenc descrit és una sobreestimació de la fiabilitat. Una vegada i una altra, veiem que tan bon punt les persones amb l'ajuda de la intel·ligència artificial troben una solució a algun problema que pot funcionar sense fallades durant un temps, automàticament assumeixen que amb la revisió (i amb una quantitat de dades una mica més gran) tot funcionarà de manera fiable.temps. Però aquest no és necessàriament així.

Tornem a agafar cotxes sense conductor. És relativament fàcil crear una demostració d'un vehicle autònom que circuli correctament per un carril clarament marcat en una carretera tranquil·la; tanmateix, la gent ha estat capaç de fer-ho durant més d'un segle. Tanmateix, és molt més difícil aconseguir que aquests sistemes funcionin en circumstàncies difícils o inesperades.

Com ens va dir Missy Cummings, directora del Laboratori d'Humans i Autonomia de la Universitat de Duke (i antic pilot de caça de la Marina dels Estats Units), en un correu electrònic, la qüestió no és quantes milles pot recórrer un cotxe sense conductor sense un accident, sinó en quina mesura. als quals aquests cotxes són capaços d'adaptar-se a situacions canviants. Segons la seva Missy Cummings, correu electrònic als autors el 22 de setembre de 2018., els vehicles semiautònoms moderns "normalment només funcionen en un rang de condicions molt reduït, que no diuen res sobre com poden funcionar en condicions menys que ideals".

Aspecte completament fiable en milions de milles de prova a Phoenix no vol dir tenir un bon rendiment durant el monsó de Bombai.

Aquesta diferència fonamental entre com es comporten els vehicles autònoms en condicions ideals (com ara els dies assolellats a les carreteres suburbanes de diversos carrils) i el que podrien fer en condicions extremes pot esdevenir fàcilment una qüestió d'èxit i fracàs per a tota una indústria.

Amb tan poc èmfasi en la conducció autònoma en condicions extremes i que la metodologia actual no ha evolucionat en la direcció d'assegurar que el pilot automàtic funcionarà correctament en condicions que tot just comencen a considerar-se reals, aviat es pot veure clar que milers de milions de dòlars s'han gastat en mètodes de construcció de cotxes autònoms que simplement no ofereixen una fiabilitat de conducció semblant a l'ésser humà. És possible que per assolir el nivell de confiança tècnica que necessitem, calguin plantejaments fonamentalment diferents dels actuals.

I els cotxes són només un exemple de molts semblants. En la investigació moderna sobre intel·ligència artificial, la seva fiabilitat s'ha subestimat globalment. Això es deu en part al fet que la majoria dels desenvolupaments actuals en aquest àmbit impliquen problemes molt tolerants als errors, com ara recomanar publicitat o promocionar nous productes.

De fet, si us recomanem cinc tipus de productes, i només us agraden tres, no passarà cap mal. Però en una sèrie d'aplicacions d'IA crítiques per al futur, inclosos els cotxes sense conductor, l'atenció a la gent gran i la planificació de l'assistència sanitària, la fiabilitat humana serà fonamental.

Ningú comprarà un robot domèstic que només pugui portar el vostre avi gran al llit amb seguretat quatre de cada cinc.

Fins i tot en aquelles tasques on la intel·ligència artificial moderna hauria d'aparèixer teòricament amb la millor llum possible, es produeixen falles greus amb regularitat, de vegades semblant molt divertida. Un exemple típic: els ordinadors, en principi, ja han après força bé a reconèixer el que hi ha (o està passant) en aquesta o aquella imatge.

De vegades, aquests algorismes funcionen molt bé, però sovint produeixen errors completament increïbles. Si mostres una imatge a un sistema automatitzat que genera subtítols per a fotografies d'escenes quotidianes, sovint obtens una resposta que és notablement semblant al que escriuria un humà; per exemple, per a l'escena següent, on un grup de persones juga al frisbee, el sistema de generació de subtítols molt publicitada de Google li dóna exactament el nom correcte.

Fig 1.1. Grup de joves jugant al frisbee (subtítol de foto plausible, generat automàticament per IA)
Fig 1.1. Grup de joves jugant al frisbee (subtítol de foto plausible, generat automàticament per IA)

Però cinc minuts més tard, es pot obtenir fàcilment una resposta absolutament absurda del mateix sistema, com va passar, per exemple, amb aquest senyal de trànsit, on algú va enganxar adhesius: l'ordinador anomenat Els creadors del sistema no va explicar per què es va produir aquest error., però aquests casos no són estranys. Podem suposar que el sistema en aquest cas concret va classificar (potser en termes de color i textura) la fotografia com a semblant a les altres imatges (de les quals va aprendre) etiquetada com "una nevera plena de molts aliments i begudes". Naturalment, l'ordinador no entenia (cosa que una persona podria entendre fàcilment) que aquesta inscripció seria adequada només en el cas d'una gran caixa metàl·lica rectangular amb diversos (i fins i tot no tots) objectes a l'interior. aquesta escena és "una nevera amb molts aliments i begudes".

Arròs. 1.2. Nevera plena d'aliments i begudes (títol totalment inverosímil, creat pel mateix sistema que l'anterior)
Arròs. 1.2. Nevera plena d'aliments i begudes (títol totalment inverosímil, creat pel mateix sistema que l'anterior)

De la mateixa manera, els cotxes sense conductor sovint identifiquen correctament el que "veuen", però de vegades semblen passar per alt l'obvi, com en el cas de Tesla, que xoca regularment contra camions de bombers estacionats o ambulàncies amb pilot automàtic. Els punts cecs com aquests poden ser encara més perillosos si es troben en sistemes que controlen les xarxes elèctriques o s'encarreguen de vigilar la salut pública.

Per salvar la bretxa entre l'ambició i les realitats de la intel·ligència artificial, necessitem tres coses: una consciència clara dels valors en joc en aquest joc, una comprensió clara de per què els sistemes moderns d'IA no compleixen les seves funcions de manera prou fiable i, finalment, una nova estratègia de desenvolupament de pensament mecànic.

Atès que els interessos de la intel·ligència artificial són molt alts en termes de feina, seguretat i teixit de la societat, és urgent que tots nosaltres (professionals d'IA, professions relacionades, ciutadans comuns i polítics) entenguem el veritable estat de les coses. en aquest camp per tal d'aprendre a valorar críticament el nivell i la naturalesa del desenvolupament de la intel·ligència artificial actual.

De la mateixa manera que és important que els ciutadans interessats en les notícies i les estadístiques entenguin com de fàcil és enganyar la gent amb paraules i números, aquí hi ha un aspecte cada cop més significatiu de la comprensió perquè puguem esbrinar on és la intel·ligència artificial només la publicitat, però on és real; què és capaç de fer ara, i què no sap com i, potser, no aprendrà.

El més important és adonar-se que la intel·ligència artificial no és màgica, sinó només un conjunt de tècniques i algorismes, cadascun dels quals té els seus propis punts forts i febles, és adequat per a algunes tasques i no és adequat per a altres. Una de les principals raons per les quals ens hem proposat escriure aquest llibre és que gran part del que llegim sobre la intel·ligència artificial ens sembla una fantasia absoluta, que neix d'una confiança infundada en el poder gairebé màgic de la intel·ligència artificial.

Mentrestant, aquesta ficció no té res a veure amb les capacitats tecnològiques modernes. Malauradament, la discussió sobre la IA entre el públic en general ha estat i està molt influenciada per l'especulació i l'exageració: la majoria de la gent no té ni idea del difícil que és crear intel·ligència artificial universal.

Aclarim més debat. Encara que aclarir les realitats associades a la intel·ligència artificial ens requerirà crítiques serioses, nosaltres mateixos no som de cap manera opositors a la intel·ligència artificial, ens agrada molt aquesta vessant del progrés tecnològic. Hem viscut una part important de la nostra vida com a professionals en aquest camp i volem que es desenvolupi el més ràpid possible.

El filòsof nord-americà Hubert Dreyfus va escriure una vegada un llibre sobre quines cotes, segons la seva opinió, mai pot arribar a la intel·ligència artificial. No es tracta d'aquest llibre. Se centra en part en allò que la IA no pot fer actualment i per què és important entendre-ho, però una part important parla de què es podria fer per millorar el pensament informàtic i estendre'l a àrees on ara té dificultats per fer-ho primer.

No volem que la intel·ligència artificial desaparegui; volem que millori, a més, radicalment, perquè puguem comptar realment amb ell i resoldre amb la seva ajuda els molts problemes de la humanitat. Tenim moltes crítiques sobre l'estat actual de la intel·ligència artificial, però la nostra crítica és una manifestació d'amor per la ciència que fem, no una crida a renunciar i abandonar-ho tot.

En resum, creiem que la intel·ligència artificial pot transformar seriosament el nostre món; però també creiem que molts dels supòsits bàsics sobre la IA han de canviar abans de poder parlar de progrés real. La nostra proposta de "restabliment" de la intel·ligència artificial no és gens un motiu per posar fi a la investigació (tot i que alguns poden entendre el nostre llibre exactament amb aquest esperit), sinó més aviat un diagnòstic: on estem atrapats ara i com en sortirem. la situació actual.

Creiem que la millor manera d'avançar pot ser mirar cap a dins, encarant l'estructura de la nostra pròpia ment.

Les màquines realment intel·ligents no han de ser rèpliques exactes dels humans, però qualsevol que miri la intel·ligència artificial honestament veurà que encara hi ha molt per aprendre dels humans, especialment dels nens petits, que en molts aspectes són molt superiors a les màquines en la seva capacitat per absorbir i comprendre nous conceptes.

Els científics mèdics solen caracteritzar els ordinadors com a sistemes "sobrehumans" (d'una manera o una altra), però el cervell humà encara és molt superior als seus homòlegs de silici en almenys cinc aspectes: podem entendre el llenguatge, podem entendre el món, podem de manera flexible. adaptar-nos a les noves circumstàncies, podem aprendre coses noves ràpidament (fins i tot sense grans quantitats de dades) i podem raonar davant una informació incompleta i fins i tot conflictiva. En tots aquests fronts, els sistemes moderns d'intel·ligència artificial estan irremediablement darrere dels humans.

Reinici de la intel·ligència artificial
Reinici de la intel·ligència artificial

Intel·ligència artificial: el reinici interessarà a les persones que vulguin entendre les tecnologies modernes i entendre com i quan una nova generació d'IA pot millorar les nostres vides.

Recomanat: