Med stor fremskridt kommer stort ansvar

Forfatter: Roger Morrison
Oprettelsesdato: 27 September 2021
Opdateringsdato: 1 Juli 2024
Anonim
MAERSK Dokumentar - Frem i verden som maskinmester og skibsfører
Video.: MAERSK Dokumentar - Frem i verden som maskinmester og skibsfører

Indhold


Kilde: Mike2focus / Dreamstime.com

Tag væk:

Medieforbruget udvikler sig sammen med teknologiske fremskridt som kunstig intelligens (AI). Mens vi generelt omfavner fremskridt, er vi også nødt til at være opmærksomme på ulemperne ved nogle former for teknologi. Der er en mørk side af AI's kapacitet, når det bruges til at fremme falske nyheder.

Teknologiens mørke side var blandt de emner, der blev udforsket på NYC Media Labs anden Machines + Media-konference, som blev sponsoreret og vært af Bloomberg på dets globale hovedkvarter i byen den 15. maj. Selvom nogle af sessionerne handlede mere om at se på, hvad teknologien var er i øjeblikket tilgængeligt for medier, selv dem, der bringer skyggen af ​​manipulation og forkert information.

En god historie er mere overbevisende end hele sandheden

Under mødet "State of the Art" påpegede Gilad Lotan, VP, chef for datavidenskab, Buzzfeed, at problemet med falske eller vildledende nyheder ikke kun kan bebrejdes mediefirmaer eller ny teknologi. ”Folk søger ikke nødvendigvis efter fakta,” sagde han. ”Læsere vil have historier.”


Han tilføjede, at fodring af dette ønske om historier og foretrukne fortællinger kan resultere i falske nyheder, der er "mere manipulation end falske oplysninger." Faktisk kan den leverede historie muligvis ikke indeholde noget falsk overhovedet. Det, der er falsk ved det, er, at de rapporterede fakta bliver kirsebærplukket og fjernet fra den større "con" for at føre "læserne mod en konklusion."

På samme måde sagde Kelly Born fra William og Flora Hewlett Funds US Democracy Initiative i ”Platform + Media” -sessionen, ”Folk kan lide nyheder, der styrker deres tro, og især hvis det udløser forargelse.” Hun advarede om, at mediernes kapitalisering på denne tendens kan føre til en "perfekt storm", der bringer det værste ud i os. Dette forværres af muligheden for fuldstændigt fremstillede præsentationer.

Ser du stadig tro?

Teknologi spiller en rolle i at fortælle historien gennem billeder og video. Vi tror normalt på det, vi ser, medmindre der er åbenlyse tegn på manipulation. Men da AI forbedrer realismen af ​​falske videoer, er det nu muligt bogstaveligt talt at sætte ord i munden på offentlige personer. (AI bruges ikke kun til ubehagelige formål. Tjek nogle konstruktive på 5 måder, virksomheder kan overveje at bruge AI.)


Faren for AIs produktion af meget troværdige videoer blev demonstreret i sessionen "Løsninger til den mørke side af maskindrevne medier." Det begyndte med en video med Barack Obama, der sagde ting, som den tidligere præsident aldrig har sagt. Bevægelsen var stadig lidt synkroniseret med ordene, så den har nogle mærker af en forfalsket video, og de fleste af publikum sagde, at de kunne genkende det som en falsk.

At Obama-videomanipulation ikke opnå realismen ved at genoplive Peter Cushing som Grand Moff Tarkin for “Rogue One.” Som en New York Times-artikel forklarede, blev effekten opnået ved at have en skuespiller bære “motion-capture materials on his head” mens han står foran kameraet "så hans ansigt kunne erstattes med en digital genoprettelse af Cushings." Filmens chef for kreativ chef / senior visuelle effekter vejleder, kaldte det "en super high-tech og arbejdskrævende version af at gøre makeup."

Udetekterbare forfalskninger

Takket være AI-fremskridt, specifikt generative adversarial-netværk (GAN'er), er det lettere end nogensinde at opnå filmmagi-effekter. Ved hjælp af GAN'er forfininger et AI-system optagelser, indtil det er godt nok til at blive accepteret som reelt af et AI-system designet til at detektere forfalskninger.

Ingen fejl, ingen stress - Din trinvis vejledning til oprettelse af livsændrende software uden at ødelægge dit liv

Du kan ikke forbedre dine programmeringsevner, når ingen er interesseret i softwarekvalitet.

I denne video kan du se forskere demonstrere, hvordan en skuespiller kan dirigere bevægelserne i en offentlig figurs ansigt til at producere ethvert udtryk og udtale med det troværdighedsniveau, som normalt ikke findes i doctored-videoer.

Mens ikke alle personer, der spiller rundt med videoer, har et sådant system til rådighed på nuværende tidspunkt, vil softwaren være inden for rækkevidde af flere mennesker i den nærmeste fremtid.

Mulige konsekvenser

Dhruv Ghulati, grundlægger og administrerende direktør, Factmata, siger, at han er "meget bekymret over", hvordan denne evne kan bruges til at sætte ikke blot verdensledere, men administrerende direktører og berømtheders ansigter i videoer som bevis for at de siger eller gør ting, de ikke har. . Videoens destruktive kræfter ville blive intensiveret ved at opnå en viral effekt fra botnets.

Det betyder, at vi "ikke længere kan stole på vores løgnende øjne," erklærede Mor Naaman, lektor i informationsvidenskab, Cornell Tech. Han var bekymret over, at det ville føre til et tab af tillid.

Andre er bekymrede for at udbrænde voldens flammer. Allerede “lige lidt modificerede videoer” bruges “til at forårsage vold i udviklingslandene”, observerede Aviv Ovadya, chefteknolog, Center for Social Media Responsibility. (Sociale medier kan være en effektiv måde at sprede falske oplysninger på. Tjek Top 4 mest ødelæggende foderhacks.)

Sarah Hudson, partner, Investering i USA, udtrykte bekymring for, at manipulerede billeder "i skala" udgør "en utrolig trussel mod den offentlige sikkerhed."

Proaktiv planlægning

Det er bydende nødvendigt at ”forhindre så meget af det misbrug som muligt”, sagde Ovadya. Det er derfor, det er vigtigt at "tænke over tid, mens du udvikler teknologi" om "hvordan man mindsker de dårlige effekter" og "afsætter ressourcer til at tackle de utilsigtede konsekvenser."

Det er umuligt at vende uret tilbage på fremskridt, men hvad vi skal gøre er at sikre, at den retning, vi tager, er gennemtænkt og planlagt. Det betyder ikke bare at arbejde på teknologi for at se, hvad der kan gøres, men at tænke over, hvad der kan gøres, der skal afværges.

Vejen frem til teknologisk innovation er at tænke igennem, hvad virkningerne kan være, og planlægge beskyttelsesforanstaltninger, inden farerne opstår. For at gøre det, har vi brug for samarbejde mellem forskere, teknologivirksomheder og myndigheder for at etablere standarder og bedste praksis, som folk vil overholde. Det bør være en prioritet for alle berørte parter.