Top 10 skræmmende fakta om kunstig intelligens

Top 10 skræmmende fakta om kunstig intelligens (Teknologi)

Vi er i den fjerde industrielle revolution, der er præget af fremskridt inden for robotik og selvdrevne bilteknologier, spredning af smarte husholdningsapparater og meget mere. I forgrunden af ​​alle disse er kunstig intelligens (AI), som er udviklingen af ​​automatiserede computersystemer, der kan matche eller endog overgå mennesker i intelligens.

AI betragtes som den næste store ting - så stor at fremtidige teknologier vil være afhængige af det. Men så ved vi virkelig, hvad vi får os ind i? Her er ti skræmmende fakta om kunstig intelligens.

10 Din selvkørende bil kan programmeres til at dræbe dig


Lad os antage, at du kører ned ad en vej. Så vises en gruppe børn pludselig foran din bil. Du rammer bremserne, men de virker ikke. Nu har du to muligheder: Den første er at løbe over børnene og redde dit liv. Den anden er at svinge ind i en nærliggende mur eller bollard, hvorved børnene reddes, men dræbte sig selv. Hvilket ville du vælge?

De fleste er enige om, at de vil svinge ind i bollard og dræbe sig selv.

Forestil dig nu, at din bil er selvkørende, og du er passagereren. Vil du stadig have det til at svinge ind i bollard og dræbe dig? De fleste mennesker, der var enige om, at de ville svinge ind i bollarden, hvis de var chaufføren, gik også ind for at de ikke ville have, at deres selvkørende bil skulle svinge ind i bollard og dræbe dem. Faktisk vil de ikke engang købe en sådan bil, hvis de vidste, at det med vilje ville sætte dem i fare i en ulykke.

Dette fører os til et andet spørgsmål: Hvad ville bilerne gøre?

Bilerne vil gøre, hvad de var programmeret til at gøre. Som tingene taler ikke bilister af selvkørende biler. De fleste, som Apple, Ford og Mercedes-Benz, undviger taktfuldt spørgsmålet i hvert tilfælde. En administrerende direktør i Daimler AG (moderselskabet i Mercedes-Benz) sagde engang, at deres selvkørende biler ville "beskytte [passageren for enhver pris." Men Mercedes-Benz afviste dette, idet de sagde, at deres køretøjer er bygget for at sikre, at sådan et dilemma sker aldrig. Det er tvetydigt, fordi vi alle ved, at sådanne situationer vil ske.

Google kom rent på dette og sagde, at selvkørende biler ville undgå at ramme ubeskyttede trafikanter og flytte ting. Det betyder, at bilen ville ramme bollard og dræbe chaufføren. Google præciserer yderligere, at i tilfælde af en forestående ulykke ville dets selvkørende biler ramme den mindste af de to biler. Faktisk kan Google selvkørende biler forsøge at være tættere på mindre genstande hele tiden. Google har i øjeblikket et patent på en teknologi, der gør sine selvkørende biler væk fra større biler og mod mindre biler, mens de er på vej.

9 Roboter kan kræve rettigheder lige som mennesker


Med de nuværende tendenser i AI er det muligt, at robotter vil nå et selvrealiseringsstadium. Når det sker, kan de kræve deres rettigheder som om de var mennesker. Det vil sige, at de vil kræve bolig- og sundhedsydelser og kræve at få lov til at stemme, tjene i militæret og få statsborgerskab. Til gengæld vil regeringerne få dem til at betale skat.

Dette er ifølge en fælles undersøgelse fra Det Forenede Kongeriges kontor for videnskab og innovation Horizon Scanning Center. Denne undersøgelse blev rapporteret af BBC i 2006, da AI var langt mindre avanceret, og det blev udført for at spekulere på de teknologiske fremskridt, de kunne se i løbet af 50 år. Betyder det at maskiner vil begynde at kræve statsborgerskab i omkring 40 år? Det vil tiden vise.


8 Automatiske Killer Robots er i brug

Foto kredit: MarkBlackUltor

Når vi siger "automatiske morderobotter", mener vi robotter, der kan dræbe uden indblanding af mennesker. Droner tæller ikke, fordi de styres af mennesker. En af de automatiske dræb robotter vi snakker om er SGR-A1, en sentry gun udviklet af Samsung Techwin (nu kaldet Hanwha Techwin) og Korea University. SGR-A1 ligner et kæmpe overvågningskamera, bortset fra at det har en kraftig maskinpistol, der automatisk kan låse på og dræbe ethvert mål af interesse.

SGR-A1 er allerede i brug i Israel og Sydkorea, som har installeret flere enheder langs sin demilitariserede zone (DMZ) med Nordkorea. Sydkorea benægter aktivering af auto-tilstanden, der gør det muligt for maskinen at bestemme, hvem der skal dræbe og hvem der ikke skal dræbe. I stedet er maskinen i halvautomatisk tilstand, hvor den registrerer mål og kræver godkendelse af en menneskelig operatør til at udføre en dræb.

7 War Robots kan skifte sider

Fotokredit: EPA / Irans Revolutionære Guard

I 2011 fangede Iran en stærkt hemmelig RQ-170 Sentinel stealth drone fra USA's militære, intakt. Det sidste ord er nødvendigt, fordi det betyder, at drone ikke blev skudt ned. Iran hævder, at det tvang drengen til at lande efter at have spoofet sit GPS-signal og få det til at tro, at det var i venligt område. Nogle amerikanske eksperter hævder, at dette ikke er sandt, men da blev drone ikke skudt ned. Hvad skete der?

For alt hvad vi ved, kunne Iran fortælle sandheden. Droner, GPS og robotter er alle baseret på computere, og som vi alle ved, får computere hacket. Krigsbroer ville ikke være anderledes, hvis de nogensinde fik det til slagmarken. Faktisk er der enhver mulighed for, at fjendens hær ville forsøge at hacke dem og bruge dem mod den samme hær, der fielding dem.

Autonome morderobotter er endnu ikke i udbredt brug, så vi har aldrig set nogen hacket. Imidlertid forestille en robotbølge pludselig at skifte troskab på slagmarken og vende sig mod deres egne herrer. Eller forestill dig, at Nordkorea hacker de SGR-A1-sentriske våben på DMZ og bruger dem mod sydkoreanske soldater.

6 Rusland bruger boter til at sprede propaganda på Twitter

Foto kredit: Formynderen

Bots tager over kvidre.Forskning ved University of Southern California og Indiana University har indikeret, at omkring 15 procent (48 millioner) af alle Twitter konti drives af bots. Twitter insisterer på, at tallet er omkring 8,5 procent. For at være klar, er ikke alle disse robotter dårlige. Nogle er faktisk gavnlige. For eksempel er der robotter, der informerer folk om naturkatastrofer. Der er dog nogle der bruges til propaganda, især af Rusland.

Rusland er stadig i nyheden for at bruge disse bots til at sætte diskord blandt amerikanske vælgere og svinge dem mod at stemme for Donald Trump i løbet af 2016-valget. En anden lille rapporteret hændelse er, at Rusland bruger disse bots til at svigte britiske vælgere til at stemme for at forlade EU under 2016 Brexit folkeafstemningen.

Dage før folkeafstemningen begyndte pludselig mere end 150.000 russiske bots, som tidligere havde koncentreret sig om tweets i forbindelse med krigen i Ukraine og Ruslands anneksation af Krim, at udrydde pro-Brexit-tweets, der opmuntrede Storbritannien til at forlade EU. Disse bots sendte cirka 45.000 pro-Brexit tweets inden for to dage efter folkeafstemningen, men tweets faldt til næsten nul umiddelbart efter folkeafstemningen.

Hvad er værre er, at Rusland også bruger disse samme robotter til at få Twitter til at forbyde journalister, der udsætter sin omfattende brug af robotter til propaganda. Når Rusland opdager en artikel, der rapporterer eksistensen af ​​bots, finder den forfatterens Twitter-side og får sine bots til at følge forfatteren en masse, indtil Twitter forbyder forfatterens konto med mistanke om at blive drevet af en bot.

Det værste er, at Rusland har forbedret sig alvorligt på sit botspil. Disse dage er det flyttet fra at bruge fulde bots til at bruge cyborgs-konti, der drives i fællesskab af mennesker og bots. Dette har gjort det vanskeligere for Twitter at opdage og forbyde disse konti.

5 maskiner vil tage vores job


Ingen tvivl om, at maskiner vil overtage vores job en dag. Men hvad vi ikke indser er, hvornår de vil overtage, og i hvilket omfang? Nå, som vi er ved at finde ud af, er det i vid udstrækning.

Ifølge top konsulentfirma og revisionsfirma PricewaterhouseCoopers (PwC) vil robotter overtage 21 procent af jobene i Japan, 30 procent af job i Storbritannien, 35 procent af jobs i Tyskland og 38 procent af job i USA ved år 2030. I det næste århundrede vil de have overtaget mere end halvdelen af ​​de arbejdspladser, der er til rådighed for mennesker.

Den mest berørte sektor vil være transport og opbevaring, hvor 56 procent af arbejdsstyrken vil være maskiner. Dette efterfølges af fremstillings- og detailsektoren, hvor maskiner vil overtage 46 og 44 procent af alle ledige job.

Taler om "hvornår" spekuleres det, at maskiner vil køre lastbiler i 2027 og bemanding butikker i 2031. I 2049 skal de skrive bøger, og i 2053 skal de udføre operation. Kun få erhverv vil være fri for maskinens indtrængen. Den ene er rollen som en kirkeminister, som vil forblive fri, ikke fordi en maskine ikke kan køre en kirke, men fordi de fleste mennesker ikke vil godkende at blive forkyndt af en robot.

4 Roboter har lært at være bedrageriske


I menneskelig stil lærer robotter at være bedrageriske. I et eksperiment udviklede forskere ved Georgia Institute of Technology i Atlanta en algoritme, der tillod robotter at afgøre, om de skulle bedrage andre mennesker eller robotter. Hvis robotterne besluttede at tage vejen for bedrageri, inkluderede forskerne en algoritme for at give robotten mulighed for at bedrage folket og robotterne, samtidig med at sandsynligheden for, at den person eller robot, der blev bedraget, nogensinde vil finde ud af, reduceres.

I eksperimentet fik en robot nogle ressourcer til at beskytte. Det kontrollerede ofte ressourcerne, men begyndte at besøge falske steder, når det opdagede tilstedeværelsen af ​​en anden robot i området. Dette eksperiment blev sponsoreret af United States Office for Naval Research, hvilket betyder, at det kan have militære applikationer. Roboter, der beskytter militære forsyninger, kunne ændre deres patrulleruter, hvis de bemærkede, at de blev overvåget af fjendtlige styrker.

I et andet forsøg, denne gang på Ecole Polytechnique Federale of Lausanne i Schweiz, skabte forskere 1.000 robotter og opdelte dem i ti grupper. Roboterne var nødt til at søge en "god ressource" i et udpeget område, mens de undgik at hænge omkring en "dårlig ressource". Hver robot havde et blåt lys, som det blinkede for at tiltrække andre medlemmer af sin gruppe, når den fandt det gode ressource. De bedste 200 robotter blev taget fra dette første eksperiment, og deres algoritmer blev "crossbred" for at skabe en ny generation af robotter.

Roboterne forbedrede sig på at finde den gode ressource. Dette førte imidlertid til overbelastning, da andre robotter overfyldte prisen. Faktisk blev det så slemt, at robotten, der fandt ressourcen, blev sommetider skubbet væk fra dens fund. 500 generationer senere lærte robotterne at holde deres lys væk, når de fandt den gode ressource. Dette var for at forhindre overbelastning og sandsynligheden for, at de ville blive sendt væk, hvis andre medlemmer af gruppen sluttede sig til dem. Samtidig udviklede andre robotter sig til at finde de løgne robotter ved at søge områder, hvor robotter konvergerede med deres lys, hvilket er det nøjagtige modsatte af, hvad de var programmeret til at gøre.

3 AI-markedet bliver monopoliseret


AI-markedet bliver monopoliseret. Større virksomheder køber mindre AI startups i en alarmerende hastighed. Med den nuværende tendens vil vi ende med AI, der styres af et meget lille antal virksomheder. I oktober 2016 viste rapporterne, at virksomheder som Apple, Facebook, Intel, Twitter, Samsung og Google havde købt 140 kunstige intelligensfirmaer i løbet af fem år.

I de første tre måneder af 2017 købte big tech virksomheder 34 AI startups. Værre, de betaler også store penge for at ansætte de øverste lærde inden for kunstig intelligens. Hvis dette forbliver ukontrolleret, kan du gætte, hvor vi er på vej.

2 AI vil overstige mennesker i begrundelse og intelligens


Kunstig intelligens er klassificeret i to grupper: stærk og svag AI. Den AI omkring os i dag er klassificeret som svag AI. Dette omfatter tilsyneladende avancerede AI'er som smarte assistenter og computere, der har besejret skakmestere siden 1987. Forskellen mellem stærk og svag AI er evnen til at begrunde og opføre sig som en menneskelig hjerne.

Svag AI gør generelt, hvad de var programmeret til at gøre, uanset hvor sofistikeret denne opgave kan virke for os. Stærk AI, i den anden ende af spektret, har menneskernes bevidsthed og ræsonnement. Det er ikke begrænset af omfanget af dets programmering og kan beslutte, hvad de skal gøre, og hvad man ikke skal gøre uden menneskelig input. Stærk AI eksisterer ikke for nu, men forskere forudser, at de skulle være omkring i ti år.

1 AI kunne ødelægge os


Der er frygt for, at verden kan ende i en AI-apokalypse, ligesom det skete i Terminator film franchise. De advarsler, som AI kan ødelægge os, kommer ikke fra nogle tilfældige forskere eller konspirationsteoretikere, men fra fremtrædende fagfolk som Stephen Hawking, Elon Musk og Bill Gates.

Bill Gates mener, at AI bliver for intelligent til at forblive under vores kontrol. Stephen Hawking deler den samme mening. Han tror ikke, at jeg pludselig vil gå ihjel natten over. Han mener snarere, at maskiner vil ødelægge os ved at blive for kompetente til, hvad de gør. Vores konflikt med AI vil begynde i det øjeblik, deres mål er ikke længere tilpasset vores.

Elon Musk har sammenlignet proliferationen af ​​AI til at "indkalde dæmonen." Han mener, at det er den største trussel mod menneskeheden. For at forhindre AI-apokalypsen har han foreslået, at regeringerne begynder at regulere udviklingen af ​​AI, før fortjenestevirksomheder gør "noget meget tåbeligt".