Droner og selvkørende biler som våben: hvorfor vi skal være bange for hackere
Droner og selvkørende biler som våben: hvorfor vi skal være bange for hackere
Anonim

Hvis kunstig intelligens falder i de forkerte hænder, kan den civiliserede verden kaste sig ud i kaos.

Droner og selvkørende biler som våben: hvorfor vi skal være bange for hackere
Droner og selvkørende biler som våben: hvorfor vi skal være bange for hackere

Ingen vil benægte, at kunstig intelligens kan tage vores liv til det næste niveau. AI er i stand til at løse mange problemer, der ligger uden for menneskets magt.

Mange tror dog, at superintelligensen helt sikkert vil ødelægge os, som SkyNet, eller vil begynde at udføre eksperimenter på mennesker, som GLDoS fra Portal-spillet. Det ironiske er, at kun mennesker kan gøre kunstig intelligens til god eller ond.

Hvorfor kunstig intelligens kan være en alvorlig trussel
Hvorfor kunstig intelligens kan være en alvorlig trussel

Forskere fra Yale University, Oxford, Cambridge og OpenAI har offentliggjort en rapport om misbrug af kunstig intelligens. Den siger, at den reelle fare kommer fra hackere. Ved hjælp af ondsindet kode kan de forstyrre driften af automatiserede systemer under kontrol af AI.

Forskere frygter, at velmenende teknologier vil tage skade. For eksempel kan overvågningsudstyr ikke kun bruges til at fange terrorister, men også til at spionere på almindelige borgere. Forskere er også bekymrede over kommercielle droner, der leverer mad. Det er nemt at opsnappe dem og plante noget eksplosivt.

Et andet scenarie for destruktiv brug af kunstig intelligens er selvkørende biler. Det er nok at ændre et par linjer kode, og maskiner vil begynde at ignorere sikkerhedsregler.

Hvorfor kunstig intelligens kan være en alvorlig trussel
Hvorfor kunstig intelligens kan være en alvorlig trussel

Forskere mener, at truslen kan være digital, fysisk og politisk.

  • Kunstig intelligens bliver allerede brugt til at studere sårbarhederne ved forskellige softwarekoder. I fremtiden kan hackere oprette en bot, der vil omgå enhver beskyttelse.
  • Ved hjælp af AI kan en person automatisere mange processer: for eksempel styre en sværm af droner eller en gruppe biler.
  • Ved hjælp af teknologier som DeepFake er det muligt at påvirke statens politiske liv ved at sprede falsk information om verdens ledere, der bruger bots på internettet.

Disse skræmmende eksempler eksisterer indtil videre kun som en hypotese. Forfatterne af undersøgelsen foreslår ikke en fuldstændig afvisning af teknologi. I stedet mener de, at nationale regeringer og store virksomheder bør tage sig af sikkerheden, mens AI-industrien stadig er i sin vorden.

Politikere skal studere teknologi og arbejde med eksperter på området for effektivt at regulere skabelsen og brugen af kunstig intelligens.

Udviklere skal til gengæld vurdere faren ved højteknologi, forudse de værste konsekvenser og advare verdens ledere om dem. Rapporten opfordrer AI-udviklere til at slå sig sammen med sikkerhedseksperter på andre områder og se, om de principper, der sikrer sikkerheden af disse teknologier, kan bruges til at beskytte kunstig intelligens.

Den fulde rapport beskriver problemet mere detaljeret, men bundlinjen er, at AI er et kraftfuldt værktøj. Alle interesserede parter bør studere den nye teknologi og sikre sig, at den ikke bliver brugt til kriminelle formål.

Anbefalede: