Isaac Asimov sci-fi szerző már az 1950-es években foglalkozott a mesterséges intelligencia etikai vonatkozásaival, és megalkotta a robotika három törvényét, amely elsődlegesen azt tette kötelezővé a robotnak, hogy nem árthat emberi lénynek. Az akkori technikai feltételek mellett ezek a problémák még valóban a fikció körében voltak értelmezhetőek. A digitális technológia fejlődésével azonban egyre izgalmasabbá válnak azok a kérdések, hogyan döntsön egy gép, etikai ítéletet megkívánó helyzetekben. Egyáltalán dönthet egy gép, vagy csak a programozója hoz döntéseket? Lehet úgy programozni egy gépet, hogy előre nem látható helyzetekben is hozzon döntést? Kié a felelősség ebben az esetben?
A gyakorlat szintjén is nehéz a kérdés. Mióta egyre közelebb kerülünk ahhoz, hogy a mindennapjainkban nagy szerepet kapjanak az automata autók, forgalomirányítási rendszerek, sok olyan kérdés is felmerül, ami a közlekedés biztonságára vonatkozik. Az MIT Media Lab munkatársai kidolgoztak egy olyan programot, ahol a résztvevők kipróbálhatják, milyen döntéseket hoznának egy automata autó helyében olyan helyzetekben, amikor nincs jó döntés, ahol Asimov robotikai törvényei is értelmezhetetlenné válnak. A nagymamát üssük el, vagy a kisgyereket? A férfit vagy a nőt? A kocsiban ülők haljanak meg, vagy azok, akik átmennek a zebrán? A pár perces tesztet végigcsinálva kipróbálhatod magad, hogyan cselekednél, sőt, ha kedvet érzel hozzá, magad is összeállíthatsz nehéz választásokkal teli kérdéssort másoknak.
Ide kattintva próbálhatod ki magad. Angolul olvasható a teszt
Kép: Forbes.com