6 (skræmmende) ting, AI bliver bedre til at gøre

Forfatter: Laura McKinney
Oprettelsesdato: 3 April 2021
Opdateringsdato: 24 Juni 2024
Anonim
6 (skræmmende) ting, AI bliver bedre til at gøre - Teknologi
6 (skræmmende) ting, AI bliver bedre til at gøre - Teknologi

Indhold


Kilde: Tampatra1 / Dreamstime.com

Tag væk:

AI klarer sig meget - men nogle af dens applikationer er ... foruroligende.

Vi har hørt meget om kunstig intelligens i det forløbne år - nogle gode og andre dårlige. Mange mennesker har kun en vag viden om, hvordan kunstig intelligens skrider frem, og hvilke metoder og teknikker der ligger bag.

Nogle af os har imidlertid en forestående følelse af undergang. Lad os nedbryde det lidt - her er nogle områder med "fremskridt", hvor AI går meget hurtigt på en måde, der kan virke lidt foruroligende for os mennesker!

Software drevet af maskinlæring kan transformere forretningsprocesser til det bedre. Klik her for at lære mere.

Dit smarte hus

Hvad med huset, der ikke kun kan fortælle, hvad du siger, men også skelne dine følelser?


Nye talegenkendelsesteknologier går ud over fonemet for at fokusere på bøjning og nuance ... og på nogle måder bliver de så sofistikerede, de kan tage meget subtile signaler og svare i overensstemmelse hermed.

”Enheden kan ikke kun, hvad en bruger siger, men den
vil også nedbryde det i udtrykket og lette at opfatte
variationer, ”siger Ash Turner, administrerende direktør for BankMyCell, et websted for elektronisk handel. "I de kommende år vil denne stemmegenkendelse integreres stærkt med elektriske genstande omkring os og i vores smarte hjem, tænde for lys eller tv, lukke elektriske persienner og så videre."

Det er alt sammen godt, medmindre algoritmen pludselig går i højen i en version af det 21. århundrede af en rædselfilm.

Du er ved at tippe rundt og være forsigtig med ikke at vække dit hus!

Ingen fejl, ingen stress - Din trinvis vejledning til oprettelse af livsændrende software uden at ødelægge dit liv


Du kan ikke forbedre dine programmeringsevner, når ingen er interesseret i softwarekvalitet.

Robotmedarbejderen

Der er også den tragiske sag af Wanda Holbrook, der blev dræbt af en robot, der knuste hendes kranium, mens hun inspicerede et nærliggende område på arbejdspladsen.

Eksperter konkluderede, at roboten ikke burde være gået ind i Holbrooks sektor, men det gjorde det, og nu frygter frygt for robotter mange arbejdstagere, der deltager i virksomhedsautomation.

Selvom ideen om løbsk robotter kan lyde finurligt, er det virkelig ikke noget at spøge med. Der skal være strenge standarder for at sikre, at robotiksystemer fungerer som de skal, på måder, der ikke skader mennesker. Tag selvkørende biler - problemer med autonome køretøjer kan have alvorlige og tragiske konsekvenser.

Roboten som en maskine skræmmer måske nogle mennesker, men når du tænker over det, hviler ansvaret for tragiske fejl som denne på AI. Når vi programmerer robotter på mere sofistikerede måder, kan vi blive mindre i stand til at kontrollere dem på traditionelle måder. Det lyder baglæns - men hvis en robot (eller en selvkørende bil) gør noget, som den ikke skal, er den sandsynligvis ikke eksplicit henvist til af en programmør. Det er med andre ord friheden, der er givet til kodebasen og funktionaliteten af ​​roboten, der er fysisk farlig.

Isaac Asimovs gamle "gør ingen skade" -robotmanifestet gennemsyrer ikke automatisk virksomhedsbrug af robotter, der rejser alvorlige ansvarsforhold. Det betyder, at vi virkelig skal være forsigtige med, hvordan vi bruger robot brute force. (Hvis du vil lære mere om robotter, skal du tjekke 5 Definition of Robots Qualities.)

Maskiner i krig

En liste med skræmmende AI ville ikke være komplet uden diskussion om måderne, som kunstig intelligens udvikler militære systemer.

”Jeg tror, ​​at evnen til kunstig intelligens, når det kommer til krigføring, er et felt, der virkelig er skræmmende,” siger Stephen Hart hos Cardswitcher.

I løbet af nogle få år har vi set udviklingen, væksten og forfining af relativt autonome typer af teknologi, der er designet til at tage menneskeliv. Det er almindeligt anerkendt, at fuldt autonome typer droner, missiler og robotsoldater kun er få år væk fra os. ... Jeg synes, at det er en meget farlig udvikling at give maskiner muligheden for at vælge, hvem de skal dræbe. Efter hvilke kriterier vælger en programmør, hvem der er en "fjendtlig", og hvem er en "ven", når han udvikler kunstig teknologi, der skal bruges i krigsførelse?

Hart nævner også en hændelse i 1983, der blev populariseret af den efterfølgende film "War Games", hvor edb-systemer startede en nukleare trussel, og det tog mennesker at opklare konflikten og få maskinerne til at stå ned.

”Nogle eksperter har udtrykt bekymring over AI-ledede våben, der udløser globale konflikter og henviser til den berygtede hændelse i 1983, da en fejlfunktion i et sovjetisk computersystem ved en fejltagelse fremsatte en advarsel om, at amerikanske missiler var på vej mod USSR, og det var kun gennem menneskelig indgriben, at en nukleare krig blev undgået, ”siger Hart.

Alt dette er enormt besværligt for mennesker, der tænker over, hvordan kunstig intelligens bruges i forsvarsindustrien. Det er dårligt nok, at vi har tårne ​​fulde af nukleare våben, som bare sidder rundt - vi vil ikke have det som en dårlig formidler.

AI Medical Malpractice?

Medicinsk malpractice er allerede et felt, der er fyldt med problematisk kompleksitet.

Nu er AI muligvis ved at forværre nogle af disse udfordringer.

David Haas er en sundhedsundersøger hos Mesothelioma Cancer Alliance.

”Så futuristisk som det kan se ud, begynder AI at hjælpe læger med at stille medicinske diagnoser,” siger Haas. ”Gennem dataindsamling og bearbejdningshastighed ved halsbånd er AI-udstyrede supercomputere i stand til at give forslag til læger, som et menneske måske ikke har tænkt på. Dette strømline muligheden for en hurtigere diagnose, hvilket kan være en liv-eller-død-situation for nogle patienter. Disse maskiner er dog stadig i deres spædbarn og er blevet bemærket for at begå almindelige fejl, der kan have alvorlige konsekvenser for en patients velvære. ”(Se De 5 mest fantastiske AI-fremskridt inden for sundhedsvæsen for mere information om AI inden for medicin.)

Arbejde som sædvanlig

På nogle måder er nogle af de mest skræmmende fremskridt dem, der sker mest stille uden nogen store advarselsskilte.

Vi begynder allerede at evaluere, hvordan vi bruger smartphones, med nogle eksperter, der binder smartphone-brug til resultaterne af mental sundhed, men nu eksploderer teknologi omkring os.

"AI vil også i fremtiden integrere yderligere med AR for at tilpasse AR-oplevelserne, når folk oplever verden omkring dem," siger Alen Paul Silverstein, administrerende direktør for Imagination Park, i en gennemgang af, hvad der allerede sker i AI. ”AR overgår fra mobile enheder til bærbare enheder (dvs. headset) i løbet af de næste 5 år, og når folk går gennem detail- og bymiljøer, vil personlig reklame og promovering blive leveret direkte til deres linser, der er drevet gennem den mobile enheds Bluetooth-forbindelse. Det bringer os til det miljø, der er vist i filmen 'Minority Report', der medvirkede til Tom Cruise. «

Silverstein er heller ikke den eneste, der bruger "Minority Report" -filmen som en advarsel - andre bekymrer sig om brugen af ​​AI i retshåndhævelse, som afbildet i den film. Der er rigelige “signaler” i den futuristiske film, der viser os, hvordan vi allerede begynder at låse op for den sande AI, der til sidst vil blive en styrke, der skal regnes med.

Frygt for hvad du ser

Her er et, der er lidt mindre almindeligt forstået - nye AI-systemers evne til at vise os forstyrrende billeder.

"Automatisk billedgenkendelse - at få en computer til at give en beskrivelse af hvad der findes i et digitalt billede - er et af de områder, hvor AI har gjort dramatiske fremskridt i de senere år," siger Kentaro Toyama. Toyama er W. K. Kellogg professor i samfundsinformation ved University of Michigan School of Information og forfatteren af ​​“Geek Heresy: Rescuing Social Change from the Cult of Technology.”

I en beskrivelse af en teknologi kaldet Google Deep Dream bemærker Toyama, hvordan den nye AI kan skabe køligt realistiske mørke billeder, der kan forårsage dyb nød hos mennesker.

”I Deep Dream anvender skaberne billedgenkendelse lidt omvendt,” forklarer han. ”De starter med et uskyldigt underliggende billede og en AI-model, der ved, hvordan man siger at genkende hunde i et billede. Men i stedet for at bruge AI til at genkende, hvad der er på billedet, bruger de det til at ændre billedet, så det bliver mere hundelignende. Hvis du gør dette, resulterer det i billeder, der er spektakulære som dem fra menneskelige drømme - nogle af de resulterende billeder er hjemsøgt smukke; andre er dybt skræmmende. ”

Sov godt!