Hvorfor siger nogle eksperter, at AI vil ødelægge digital ægthed?

Forfatter: Roger Morrison
Oprettelsesdato: 26 September 2021
Opdateringsdato: 17 Juni 2024
Anonim
Hvorfor siger nogle eksperter, at AI vil ødelægge digital ægthed? - Teknologi
Hvorfor siger nogle eksperter, at AI vil ødelægge digital ægthed? - Teknologi

Indhold

Q:

Hvorfor siger nogle eksperter, at AI vil "ødelægge digital ægthed"?


EN:

Maskinindlæring og kunstig intelligens ændrer hurtigt mange brancher og omformer virkelig de måder, vi tænker på teknologisk fremgang. Men de engagerer også nogle interessante dikotomier og modsigelser med hensyn til, hvordan vi forholder os til vores computere og smartphone-enheder eller andre nye grænseflader, der tilfældigvis kommer med.

Et af de store spørgsmål med kunstig intelligens er, hvordan det vil påvirke "ægthed" - eller hvordan folk verificerer og bekræfter den virkelighed, der findes, i "kødområdet" eller i den digitale verden. Når du virkelig går i dybden med, hvordan dette fungerer, ser du en iboende modsætning mellem begrænsningerne i vores teknologi og måderne, som vi har tillid til teknologien til vores rådighed.

Et af de bedste eksempler kan findes i en nylig Wired-artikel, der viser, hvordan personer med kunstig intelligens og maskinindlæringsressourcer er i stand til at tage et billede af en hest i bevægelse og overlejre zebra striber i en proces, som forfatteren kalder "zebrafication."


Det er pænt og nyt, men det kan også potentielt give et problem. Når du ser en zebra på en digital skærm, hvordan ved du det, at det er en zebra, og ikke bare en hest med zebra striber, der klogt placeres på den af ​​en teknisk dygtig person?

Det kan virke som et teoretisk spørgsmål, men de samme slags spørgsmål kommer snart til at gælde for de nyheder, vi får i digital form - fra politik til økonomi til religion, alt sammen kommer til at stole på vores evne til at sile gennem information , for at tjekke og skelne mellem sandhed og fiktion, mellem myte og virkelighed. Efterhånden som nye kunstige intelligensværktøjer tilbyder flere måder at manipulere billede og video på, bliver dette meget vanskeligere.

Et andet fremragende eksempel er nye stemmeteknologier. I en artikel for et par år siden dækkede vi et spirende IT-projekt, der tog stemmer fra berømte mennesker og byggede stemmemodelmotorer, der kunne få de berømte mennesker til at sige alt fra bortset fra graven.


Igen er dette pæn og interessant teknologi - det ser ud som en sjov måde at bruge talebehandlingsteknologier på. Men det kommer virkelig til at give et problem, når vi skifter fra gammel analog og uokumenteret digital stemmeteknologi til ny syntetisk og præfabrikeret stemme. Hvordan vil du vide, hvem der taler til dig - på telefon, tv eller lige i øret?

Specifikt kan ideen om at ændre lyd, billede og video på sofistikerede måder forstærke nogle af vores mest værdsatte ideer som samfund. Hvordan vil folk stole på det, de hører og ser i den politiske verden? Hvad med loven - vil de anklagede for forbrydelser have nye typer appeller baseret på den potentielle ændring af bevismaterialet?

En anden måde at forstå nogle af disse problemer er at se på science-fiction-skrivning - fra Ray Bradburys “Fahrenheit 451” til George Orwells “1984” og videre har fortællerne fra fortidens ældre gentagne gange advaret os om, at teknologi kunne bruges til både nyttige og problematiske ender. En af grundene til, at så mange eksperter og chefer for it-virksomheder kræver “forklarbar kunstig intelligens” og etiske paneler, er, at de forstår spørgsmålet - at hvis vi ikke kontrollerer teknologier grundigt, vil vi ikke kunne stole på dem i nogen grad. I stedet for at hjælpe os med at nå vores mål, kan de ende med at skade os, delvis ved at forårsage den slags sociale kaos, der findes, når vi ikke rigtig kan få fat på sandheden og virkeligheden. En del af den gode nyhed er dog, at teknologier som blockchain, der giver transaktionsgodkendelse, kan hjælpe, når de anvendes til digitale poster.