Se impune un cod de etica masinilor autonome? Ca si cum ar fi legile roboticii ale lui Asimiv? Subiecte focus in articol:
- de ce etica masinilor autonome trebuie sa existe
- care ar fi regulile din acest cod
De ce etica masinilor autonome ar trebui sa existe
Discutam de conducere autonoma tot mai des. Progresele tehnologice fac ca aceste masini sa se poata conduce singure si sa ia decizii singure. Posibilitatea de a lua decizii este cea cea pune probleme. Oare inteligenta artificiala poate lua decizii bune daca nu exista un cod de etica in spate?
Tesla declara ca toate masinile produse de ei au hardware-ul necesar pentru a se putea conduce singure. Este doar e chestiune de update-uri de softuri ca masinile sa fie capabile de asa zis-ul „full autonomous driving”. Intrebarea care se pune este daca aceste masini pot lua decizii care sa protejeze viata, de exemplu.
De asemenea se pune intrebarea ce se intampla in cazul in care cineva preia controlul masinilor Tesla. Se stie ca acestea sunt conectate la un centru Tesla si primesc de acolo informatii. De asemeenea transmit in permenenta informatii centrului. Ce se intampla daca cineva rau voitor preia controlul unui astfel de centru si modifica softurile de conducere autonoma? Cum le poate modifica? Programand masinile sa intre in pietoni pe trecerea de pietoni sau sa loveasca primul stalp, De asemenea pot lovi alte masini din trafic.
Sunt protejate tehnologiile astea printr-un cod de etica care sa nu poata fi suprascris? E necesar un astfel de cod de etica implementat in astfel de tehnologii? Raspunsul e inevitabil: DA. Problema care apare este ca asta nu e inca reglementat. Si, asa cum suntem deja invatati probabil ca va fi reglemeantat doar dupa ce se va produce primul incident major.
Care ar fi regulile din acest cod
Regulile nu sunt complicate, ele ar trebui creat simplu astfel incat sa protejeze viata.
Asta ar trebui minimal sa fie bazate pe cele 3 legi ale roboticii formulate de Asimov:
- Un robot nu are voie să pricinuiască vreun rău unei ființe umane, sau, prin neintervenție, să permită ca unei ființe omenești să i se facă un rău.
- Un robot trebuie să se supună ordinelor date de către o ființă umană, atât timp cât ele nu intră în contradicție cu Legea 1.
- Un robot trebuie să-și protejeze propria existență, atât timp cât acest lucru nu intră în contradicție cu Legea 1 sau Legea 2.
Filmul asta o sa-ti dea un pic de gandit:
Daca ti-a placut articolul te invit sa-l citesti si pe urmatorul: Cel mai ciudat Fererri
2 comentarii la „Etica masinilor autonome”