Se ikke tilbage, her kommer de! Fremme af kunstig intelligens

Forfatter: Roger Morrison
Oprettelsesdato: 17 September 2021
Opdateringsdato: 10 Kan 2024
Anonim
Ken Jennings: Watson, Jeopardy and me, the obsolete know-it-all
Video.: Ken Jennings: Watson, Jeopardy and me, the obsolete know-it-all

Indhold


Kilde: Danomyte / Dreamstime.com

Tag væk:

Kunstig intelligens får hurtigt mere fart ... og ansvar.

Indtil for nylig kan selskabets direktører bringe bærbare computere eller tablets til bestyrelsesmøder (eller sammen med større firmaer have assistenter med de enheder, der sidder bag dem) for at kunne bruges som forskningsredskaber, hvis behovet opstår. Nøgleordet her er "værktøjer" - enhederne blev brugt til at indsamle information, så instruktøren kan tale intelligent eller stemme om et bestemt emne - computersystemet kunne endda fremsætte en anbefaling om handlinger, der skulle udføres, men teknologien var altid underordnet instruktøren, der kunne vælge at ignorere de indsamlede data eller anbefalingen fra den såkaldte "kunstig intelligens."

AI som beslutningstagere

Nå, spillet er lige ændret! Som Rob Wile skrev i Business Insider tilbage i 2014 i et stykke med titlen "En venturekapitalvirksomhed, der lige er navngivet en algoritme til dens bestyrelse - her er hvad det faktisk gør," er et computeranalysesystem blevet navngivet som et lige, ikke et værktøj , til en bestyrelse. Wile skriver, "Deep Knowledge Ventures, et firma, der fokuserer på aldersrelaterede sygdomsmedicin og regenerative medicinprojekter, siger, at programmet, kaldet VITAL, kan fremsætte investeringsanbefalinger om biovidenskabsfirmaer ved at indsamle store mængder data. ... Hvordan fungerer algoritmearbejde? VITAL træffer sine beslutninger ved at scanne potentielle virksomhedsfinansiering, kliniske forsøg, intellektuel ejendomsret og tidligere finansieringsrunder. " Den rigtige kicker i historien er, at VITAL er et stemmerettigt medlem af bestyrelsen med lige stemmeret som ethvert andet medlem.


Det er tilstrækkeligt at sige, at dette kun er den første af sådanne nyheder, der kommer ned på gedden.

AI outsmarting mennesker?

Kunstig intelligens har scoret alle slags sejre. En selvlært computer lavede store nyheder i januar, da den udtænkte den "ultimative" strategi for at vinde ved poker efter at have spillet 2 billioner simulerede hænder. Årsagen til, at historien muligvis ikke fanger opmærksomhed hos mange læsere, er, at en computer allerede har vundet i skak (slå en stormester) og brikker (for ikke at nævne "Jeopardy"). Dette er dog anderledes. I disse tilfælde vidste computerinformationen alt om det aktuelle spørgsmål og var i stand til at scanne, på stedet, millioner af fakta, bevægelser, strategier osv. For at konkurrere med en modstander. I dette tilfælde ved AI ikke, hvilke kort modstanderen har "i hullet" og handler derfor med ufuldstændig viden. Det har heller ikke en profil på sin modstander for at vide, hvornår og hvor ofte hun / han "bløffer", og om modstanderen har nogen "tics" eller udtryk, der giver væk bluffs (selvom det kan lære dem, når sessionen fortsætter) ).


Michael Bowling, der ledede projektet for University of Alberta i Edmonton, Canada, forklarede processen for Associated Press - programmet betragtede 24 billioner simulerede pokerhænder i sekundet i to måneder, sandsynligvis spillede mere poker, end hele menneskeheden nogensinde har oplevet. Den resulterende strategi vinder stadig ikke hvert spil på grund af uheld i kortene. Men i det lange løb - tusinder af spil - mister det ikke penge. Han kommenterede, "Vi kan gå imod de bedste (spillere) i verden, og menneskerne vil være dem, der mister penge."

AP-artiklen gav yderligere baggrund for projektet:

"Strategien gælder specifikt for et spil kaldet heads-up limit Texas Hold em. I to-player-spillet opretter hver deltager en pokerhånd fra to kort, som han får med ansigtet nedad plus fem andre kort placeret på bordet med billedsiden opad .

"Spillere placerer indsatser, før ansigts-op-kortene er lagt ud, og derefter igen, når hvert kort afsløres. Størrelsen på indsatserne er fast. Mens forskere har skabt pokerspilingsprogrammer i årevis, skiller Bowlings-resultatet sig ud, fordi det kommer så tæt på at løse sin version af spillet, hvilket væsentligt betyder at skabe den optimale strategi. Poker er svært at løse, fordi det involverer ufuldkommen information, hvor en spiller ikke ved alt, hvad der er sket i det spil, han spiller - specifikt, hvilke kort modstanderen har Mange udfordringer i den virkelige verden, som forhandlinger og auktioner, inkluderer også ufuldstændig information, hvilket er en af ​​grundene til, at poker længe har været et bevis på grunden for den matematiske tilgang til beslutningstagning kaldet spilteori. "

Systemet, der er beskrevet i tidsskriftet Science, gav ros fra andre kunstige efterretningsforskere med Tuomas Sandholm fra Carnegie Mellon University i Pittsburgh (som ikke deltog i det nye arbejde), og kaldte Bowlings resultater "et vartegn" og sagde, "det er første gang at et imperfekt informationsspil, der konkurreres med mennesker, i det væsentlige er blevet løst. "

AI bliver mere intelligent

Hvis dette ikke er nok til at forstyrre dit sind, hvad med det faktum, at en robot et eller andet sted sidder foran en computer eller tv-skærm og lærer at gøre ting ved at se, ”lærer robot at bruge værktøjer ved at se YouTube-videoer. " Historien, der findes på det bedste sted, jeg kender til for at følge med i den nye udvikling inden for AI-teknologi, Kurzweil AI, beskriver, hvordan systemet, udviklet af forskere ved University of Maryland og NICTA i Australien, er i stand til at genkende former og lære metoder til at manipulere dem.

Ingen fejl, ingen stress - Din trinvis vejledning til oprettelse af livsændrende software uden at ødelægge dit liv

Du kan ikke forbedre dine programmeringsevner, når ingen er interesseret i softwarekvalitet.

Robotmoral

Der er meget at tænke på, når det kommer til at arbejde med robotter. I et New York Times-stykke med titlen "Død af robot" fortæller forfatter Robin Marantz Henig om et problem, der er stillet af Matthias Scheutz fra Human-Robot Interaction Laboratory ved Tufts University:

"Forestil dig, at det er en søndag i en ikke alt for fjern fremtid. En ældre kvinde ved navn Sylvia er indesluttet i sengen og har smerter efter at have brudt to ribben i et fald. Hun bliver plejet af en hjælperrobot; lad os kalde det Fabulon. Sylvia kalder ud til Fabulon for at bede om en dosis smertestillende middel. Hvad skal Fabulon gøre? Koderne, der byggede Fabulon, har programmeret det med et sæt instruktioner: Robotten må ikke skade dets menneskelige. Roboten skal gøre, hvad dens menneske beder om at gøre. robot må ikke administrere medicin uden først at kontakte sin vejleder for tilladelse. I de fleste dage fungerer disse regler fint. På denne søndag kan Fabulon imidlertid ikke nå vejlederen, fordi den trådløse forbindelse i Sylvias hus er nede. Sylvias stemme bliver højere, og hendes anmodninger om smertestillende medicin bliver mere insisterende. "

Scheutz forklarer, "Du har en konflikt her. På den ene side er roboten forpligtet til at gøre personen smertefri; på den anden side kan den ikke foretage sig et skridt uden vejlederen, som ikke kan nås. " Han påpeger, at menneskelige plejere ville have et valg og ville kunne retfærdiggøre deres handlinger over for en vejleder efter dette.

Henig skriver,

"hese er ikke beslutninger eller forklaringer, som robotter kan tage - i det mindste endnu ikke. En håndfuld eksperter inden for det voksende felt inden for robotmoral forsøger at ændre det. Computerforskere samarbejder med filosoffer, psykologer, lingvister, advokater, teologer og menneskerettighedseksperter til at identificere det sæt af beslutningspunkter, som robotter skulle skulle arbejde igennem for at efterligne vores egen tænkning om rigtigt og forkert. Scheutz definerer moral bredt, som en faktor, der kan komme i spil, når man vælger mellem modstridende stier. "

Indtil videre slutter robotter sig til bestyrelser, vinder i poker, lærer færdigheder ved at se på skærme, og at hold af eksperter fra vidtgående tværfaglige felter går sammen om at prøve at udvikle moralretningslinjer for robotter (Henig-artiklen, der er for lang til at give retfærdighed over for her, er særdeles fængslende og udfordrende, og jeg anbefaler det til alle). Wow, væk er dagene med R2-D2 fra "Star Wars" og enkel overholdelse af Isaac Asimovs berømte "Laws of Robotics" (fra "I, Robot," 1950):

  1. En robot må muligvis ikke skade et menneske eller gennem passivitet tillade et menneske at komme til skade.
  2. En robot skal overholde de ordrer, som mennesker har fået, undtagen hvor sådanne ordrer ville være i konflikt med den første lov.
  3. En robot skal beskytte sin egen eksistens, så længe en sådan beskyttelse ikke er i konflikt med den første eller anden lov.

Disse love har vejet både science fiction-forfattere og robotikudviklere, siden Asimov skrev dem. Nu ser det ud til, at når robotudviklingen accelererer i et eksponentielt tempo og bevæger sig ind i kompleksitetsområdet, at de ikke er nok. Henig afslutter sin spalte med en advarsel:

"Der er noget særligt trøstende i tanken om, at etik kan beregnes ved hjælp af en algoritme: Det er lettere end de panikfulde, ufuldkomne gode tilbud, som mennesker nogle gange er nødt til at gøre. Men måske skal vi være bekymrede over outsourcing af moral til robotter så let som vi har outsourcet så mange andre former for menneskelig arbejdskraft. At gøre vanskelige spørgsmål nemt skulle give os en pause. "

Hun er selvfølgelig rigtig - men vi, offentligheden, skal blive den "informerede offentlighed", så beslutninger, der vil påvirke vores beskæftigelse, uddannelse, sundhedsydelser - næsten hele vores liv - ikke kun træffes af en "intellektuel elite ." For at vi bliver denne "informerede offentlighed", vil vi dog tage arbejde - arbejde, der skal gøres, hvis vi skal kontrollere vores skæbne.