Hvordan AI-fremskridt påvirker sikkerhed, cybersikkerhed og hacking

Forfatter: Roger Morrison
Oprettelsesdato: 27 September 2021
Opdateringsdato: 1 Juli 2024
Anonim
Hvordan AI-fremskridt påvirker sikkerhed, cybersikkerhed og hacking - Teknologi
Hvordan AI-fremskridt påvirker sikkerhed, cybersikkerhed og hacking - Teknologi

Indhold


Kilde: Sdecoret / Dreamstime.com

Tag væk:

AI bruges til at fremme kampen mod kriminalitet ... men det bruges også til at fremme kriminalitet. Her er nogle af de nyeste innovationer inden for AI-sikkerhed.

Kunstig intelligens (AI) er stort set den nyeste og mest indflydelsesrige teknologiudvikling, der i øjeblikket påvirker alt og alle i den digitale verden. Udviklere og virksomheder over hele kloden konstruerer nye måder at implementere en maskine-læringsbaseret funktion i al software, platform og værktøj derude.

Det er en temmelig åbenlyst konsekvens, at AI påvirker sikkerhed (og cybersikkerhed) på mange positive og negative måder, da det er et potent værktøj i hænderne på både sikkerhedspecialister og hackere, i et uendeligt spil med politiet og røverne.

The Good vs Evil AI Cybersecurity Battle

At være cybersecurity-professionel er alt andet end simpelt. IT-fagfolk er nogle af de mest hårdtarbejdende medarbejdere omkring med anstrengende arbejdsskift på op til 52 timer om ugen. Alt, hvad der kan automatisere deres komplicerede og trættende opgaver (især de mest krænkelige og gentagne), såsom en smart AI-løsning, er en velkommen velsignelse. Maskinelæringsbaseret software er også særlig effektiv til at se lighederne mellem de forskellige cybertrusler, især når angrebene koordineres af andre automatiserede programmer. Prikken over i'et er, at de nyere AI-baserede algoritmer bliver bedre til at forstå de data, der kommer fra de forskellige værktøjer, og se de kritiske sammenhænge, ​​som mennesker måske savner.


Det lyder som AI får de "gode fyre" til at vinde deres kamp mod den onde hacker, ikke sandt?

Det er kun halvdelen af ​​sandheden, da de meget neutrale maskiner faktisk hjælper begge sider lige. Et panel med 26 eksperter fra Det Forenede Kongerige og De Forenede Stater offentliggjorde for nylig en interessant artikel: "Den ondsindede brug af kunstig intelligens: Prognoser, forebyggelse og begrænsning." Her forklarer de tydeligt, hvordan AI let kan blive en trussel i de forkerte hænder, da det er et potent våben til at gennembryde selv det mest tilsyneladende uknuselige cyberforsvar. Det største problem er, at angribere normalt er afhængige af mindre arbejdsstyrker for at koordinere deres angreb. Men hvis det automatiseringsniveau, som AI bringer, kan øge omfanget af deres angreb, især hvis de er i stand til at rekruttere store hære af maskinlæringsdrevne bots, vil IoT-botnet være en meget større trussel. "Smart" malware drevet af de nyeste algoritmer kan blive meget mindre påviselig, og arbejdskrævende angreb såsom spydfiskning kan udføres med betydelig effektivitet, selv af de mindre hold.


Våbenbaseret AI kan også repræsentere en langt mere alvorlig trussel for den gennemsnitlige bruger end for cybersikkerhedseksperten, hvilket gør den digitale verden til et langt mindre sikkert sted at strejfe rundt. Hvor mange ved f.eks., At selv nogle af de bedste VPN'er lækker deres DNS gennem Chrome-udvidelser? Hvis alle de data, der lækker hver dag af millioner af brugere, indsamles gennem automatisering, kan et effektivt AI-drevet værktøj foretage alle de sammenhænge, ​​der kræves for at koordinere et enormt antal angreb mod forsvarsløse brugere. Og dominoeffekten af ​​disse strategier kan have virkelig ødelæggende konsekvenser, med cyberkriminalitet, der koster verden omkring 650 milliarder dollars om året. (Se Brug af en gratis VPN for ikke mere om VPN-bekymringer? Ikke rigtigt. Du er mest sandsynligt at bruge en datafarm.)

Opsporing af svig og sikkerhed

AI-drevet biometri kan identificere, måle og analysere ikke kun fysiske og ansigtsmæssige træk, men specifik menneskelig adfærd, der kan rejse enhver form for rødt flag. De kan let hjælpe med at identificere enhver potentiel kriminel, der planlægger, f.eks. Et bankrøveri eller et tyveri, og hjælpe lokale sikkerhedsstyrker med at forhindre det, inden det endda sker. Biometri kan arbejde side om side med analyse og naturlig sprogbehandling (NLP). Disse to teknologier bruger maskinlæring til at forstå og analysere komplekse samt forstå strukturen af ​​sætninger og deres intentioner.

Men mennesker kan forstås endda ud over deres verbale og fysiske træk. Følelsesgenkendelse er en fascinerende ny teknologi, der tillader en unik forbløffende software at "læse" menneskelige følelser gennem en blanding af avanceret billed- og lydbehandling. Ansiktsudtryk er dybt sammenflettet med humør, personlighed og menneskelig kommunikation, og endda "mikro-udtryk" kan fanges af maskiner for at forstå, hvad personen vil gøre.

Ingen fejl, ingen stress - Din trinvis vejledning til oprettelse af livsændrende software uden at ødelægge dit liv

Du kan ikke forbedre dine programmeringsevner, når ingen er interesseret i softwarekvalitet.

Sammen kan alle disse systemer integreres til sikkerhedssystemer og bedrageri afsløring. Retshåndhævelse kan bruge dem til at opdage information under forhør, forudsige adfærd, begrænse risikable situationer og endda bekæmpe terrorisme. AI og maskiner er ved at blive de nye "vagthunde", der vil hjælpe alle slags sikkerhedsstyrker. Vær dog opmærksom - AI kan også bruges af mennesker med ondsindet intention, for eksempel ved at udnytte talesyntesoftware til efterligning. (Se Machine Learning & Hadoop i næste generation af svig, hvis du vil have flere oplysninger om bedrageribetegnelse.)

Nødstyring

Når en katastrofe eller en nødsituation af en eller anden art opstår, skal sikkerhedspersonalet reagere med fleksibilitet og smidighed, og hurtighed er meget vigtig. Et styringssystem skal være på plads til at behandle alle tilgængelige oplysninger, diskriminere de mest relevante informationsstykker fra de mest ubrukelige og samle alle data, der kommer fra flere kilder på en hurtig og pålidelig måde. Personale skal have en sikker og handlingsrig løsning, der er summen af ​​al denne info.

Det er let at forstå, hvor svært det er for et menneske eller endda et team af mennesker, at gøre alt dette med alt pres for at vide, hvordan forkerte beslutninger på et sekund kan koste mange menneskers liv. Kunstig intelligenssteknologi kan anvendes til katastrofeberedskab for at lette byrden ved håndtering af nødsituationer. Kriser kan håndteres hurtigt og effektivt takket være AI af mange grunde.

For det første er AI god til at fremsætte forudsigelser og til at analysere og vurdere omfanget af skader og risiko i et givet område. På denne måde kan hold prioritere deres interventioner for først at give deres hjælp til dem, der har mest brug for det. Billedgenkendelse, dataekstrapolering og klassificering kan udføres af AI i en meget højere hastighed ved hjælp af billeder og data, der f.eks. Kommer fra satellitter eller knasede fra crowd-sourced kortlægningsmateriale.

AI-systemer tale-til- og analyseprogrammer som IBM's Watson bruges i øjeblikket til at lytte til nødopkald for at lette arbejdsgangen for kontaktcentre under katastrofer. AI hjælper med at reducere opkaldstider, giver nøjagtige oplysninger til beredskabsteamene og kan planlægge de hurtigste ruter. Selv billeder fra sociale netværk som Instagram, YouTube og kan analyseres af AI for at filtrere rigtige oplysninger fra falske eller finde manglende mennesker.

Konklusion

AI er allerede indarbejdet i mange sikkerhedsværktøjer og løsninger. Fra videoovervågningskameraer til indbrudsalarmer og endda mobile chipsets til at give adgangskontrol, det vil bogstaveligt talt være overalt. I stedet for en tendens til en lidt fjern fremtid, er integrationen af ​​AI-software i sikkerhed allerede blevet den nye markedsstandard.