Vad vill du kära maskin?

10.06.2015 kl. 14:02
Vad händer när maskinerna blir så intelligenta att de övergår människans förstånd?

Intelligensen har varit människans konkurrensfördel i evolutionen. Den har gett homo sapiens makt över naturen och den har banat väg för alltmer sofistikerad teknik. Vad händer när den tekniken blir allt intelligentare, ja, intelligentare än människan?

Diskussionen om artificiell intelligens och robotar som tar över människors arbetsuppgifter är ingalunda ny, men den har varit särskilt aktuell nu under våren, också i denna tidning. Jag är inte lika pessimistisk som Thomas Rosenberg (29.4.) som ser teknikens monster ta makten, men jag är oroad över de nya ansvarsfrågor som uppstår när intelligenta maskiner tillåts göra egna val. Varken lagstiftningen eller det politiska systemet är redo för konsekvenserna.

Vem bär till exempel ansvaret när den självstyrande bilen gör ett fatalt misstag? I dag är svaret givet: Bilens förare. Men detta bara så länge de förarlösa prototyperna förutsätter att bilisten håller koll och kan ta över kommandot. Vad händer när bilindustrin börjar marknadsföra bilar som sägs vara självgående på riktigt? Eller när tekniken gör bilen så snabbmanövrerad att människans, förarens, reaktionsförmåga inte räcker till när det behövs?

Bär bilindustrin ansvaret vid en olycka eftersom den utlovat en säker förarlös drift? Eller är ansvaret förarens, trots att hen omöjligtvis kunnat hantera den situation tekniken gav upphov till?

 

Det intressanta med robotar är att ju intelligentare de blir, desto mindre behöver de människans vakande öga. Människan, den dyra arbetskraften, rationaliseras alltid bort om det är möjligt.

Den artificiella intelligensen leder med tiden till maskiner som reparerar sina egna fel och skriver om och förbättrar sin mjukvara. Vi får maskiner som lär av egna misstag och som förbättrar sig själva genom att ständigt utnyttja information de suger åt sig från nätet. Och vi får maskiner som skapar nya komplicerade maskiner.

Så uppstår robotar som inte bara är intelligentare än människan, utan så intelligenta att människan inte förstår sig på dem. Tankarna går osökt till datamaskinen HAL som tog över kommandot i Arthur Clarkes rymdäventyr 2001. HAL var inte bara intelligent. HAL hade en egen vilja.

 

Också utanför science fictionförfattarnas värld blir det aktuellt att fundera över vilka värderingar de självstyrande, läraktiga maskinerna har. Människan kan vara empatisk. Hon har känslor, vilja, rättsuppfattning och samvete.

En maskin kan programmeras till att visa någon form av hänsyn, men ett samvete? Knappast.

Ju mer självgående den artificiella intelligensen blir – ju mer den övergår människans förstånd – desto viktigare blir frågan om roboten i något skede kan bli juridiskt ansvarig för sina handlingar. Helt enkelt därför att ingen annan, inte ens robotens ägare, kan belastas med ansvaret.

Det låter som rena science fiction. Men vänta bara, snart vädrar jurister och försäkringsbolag morgonluft!

Björn Sundell