Ronald Arkin i Alan Wagner s Georgia Institute of Technology objavili su u International Journal of Social Robotics rezultat svog pokusa u kojem su jednog robota naučili laganju. Dvojicu robota, crnog i crvenog, učili su igri skrivača. Crni robot sakrivao se u jedno od tri predviđena skrovišta, a crveni robot ga je tražio služeći se prevrnutim obojenim oznakama na putu do jednog od skrovišta.
No, crni robot programiran je da promijeni smjer nakon što je oborio oznake koje vode do jednog od mjesta, i sakrije se na drugom. U 75 % od 20 pokusa, njegova "laž" je uspjevala; preostalih 25 % neuspjeha, kad je nađen, bio je rezultat robotove nespretnosti u obaranju oznaka, a ne neuspjele laži.
- Pokusni rezultati nisu bili savršeni, ali su prikazali učenje i korištenje lažnih signala kod stvarnih robota u bučnom okruženju. Ovi rezultati su i preliminarna indikacija da tehnike i algoritmi opisani u našem radu mogu biti korišteni da se uspješno proizvede prevarantsko ponašanje kod robota – kaže Wagner, a Arkin dodaje:
- Od samog početka brinu nas i etičke implikacije vezane za stvaranje robota sposobnih za laž i svjesni smo da postoje i korisni i štetni aspekti toga. Iznimno ohrabrujemo raspravu o doličnosti robota lažaca da bi se odredilo trebaju li, i kakva trebaju, pravila ili smjernice ograničiti razvitak takvih sustava.
Drugim riječima, to što Asimovljeva Tri zakona robotike odlaze kvragu i prije nego što su stvoreni roboti kakve je dr. Asimov zamišljao, ta dvojica smatraju dobrom temom za diskusiju. Dat će njima diskusiju sustav Skyneta kad bude pušten u pogon...
Ronald Arkin i Alan Wagner s Georgia Institute of Technology objavili su u International Journal of Social Robotics rezultat svog pokusa u kojem su jednog robota naučili laganju. Dvojicu robota, crnog i crvenog, učili su igri skrivača. Crni robot sakrivao se u jedno od tri predviđena skrovišta, a crveni robot ga je tražio služeći se prevrnutim obojenim oznakama na putu do jednog od skrovišta.
No, crni robot programiran je da promijeni smjer nakon što je oborio oznake koje vode do jednog od mjesta, i sakrije se na drugom. U 75 % od 20 pokusa, njegova "laž" je uspjevala; preostalih 25 % neuspjeha, kad je nađen, bio je rezultat robotove nespretnosti u obaranju oznaka, a ne neuspjele laži.
- Pokusni rezultati nisu bili savršeni, ali su prikazali učenje i korištenje lažnih signala kod stvarnih robota u bučnom okruženju. Ovi rezultati su i preliminarna indikacija da tehnike i algoritmi opisani u našem radu mogu biti korišteni da se uspješno proizvede prevarantsko ponašanje kod robota – kaže Wagner, a Arkin dodaje:
- Od samog početka brinu nas i etičke implikacije vezane za stvaranje robota sposobnih za laž i svjesni smo da postoje i korisni i štetni aspekti toga. Iznimno ohrabrujemo raspravu o doličnosti robota lažaca da bi se odredilo trebaju li, i kakva trebaju, pravila ili smjernice ograničiti razvitak takvih sustava.
Drugim riječima, to što Asimovljeva Tri zakona robotike odlaze kvragu i prije nego što su stvoreni roboti kakve je dr. Asimov zamišljao, ta dvojica smatraju dobrom temom za diskusiju. Dat će njima diskusiju sustav Skyneta kad bude pušten u pogon...
izvor/dalje. com
**********************************************************************************
Pa mislim....zar nije dovoljno ljudskih laži i manipulacije sad još uče i strojeve lagati? U kakvom mi to svijetu živimo? Čini se da sami ljudi više nisu u stanju smisliti dovoljnu količinu laži i prljavština što nam ih svakodnevno serviraju sad će izmisliti i robote koji će izmišljati umjesto njih?