Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 1

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  luki w odpowiedzialności
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
1
Content available remote Dylematy etyczne związane z ewolucją robotów
PL
Rozwój technik obliczeniowych, robotyki, druku 3D i technologii materiałowych umożliwia tworzenie zaawansowanych systemów robotów, które mogą autonomicznie rozmnażać się i ewoluować. Powstająca technologia ewolucji robotów rzuca wyzwanie istniejącej etyce sztucznej inteligencji, ponieważ wrodzona adaptacyjność, stochastyczność i złożoność systemów ewolucyjnych stwarzają liczne zagrożenia. Trudno jest lekceważyć możliwe implikacje dwóch kluczowych funkcjonalności ewoluujących robotów: samoreplikacji i losowej zmiany formy oraz zachowania robota. Samoreplikacja umożliwia robotom rozmnażanie się bez interwencji człowieka. Mutacje lub losowe zmiany ewolucyjne mogą prowadzić do niepożądanych i szkodliwych zachowań robotów, zagrażając ludzkim interesom. Za każdym razem, gdy powstaje technologia, która nie jest bezpośrednio kontrolowana przez człowieka, i gdy proces ten jest nieprzewidywalny, rodzą się pytania o ryzyko i odpowiedzialność. W artykule porusza się kwestie możliwego ryzyka powstania szkód i odpowiedzialności w powiązaniu z kluczowym problemem kontroli ludzkiej nad procesem ewolucji. Zagadnienie odpowiedzialności za sztuczną inteligencję uznano za szczególnie istotne zarówno z etycznego, jak i prawnego punktu widzenia. Generalnie odpowiedzialność dotyczy pełnego spektrum zdarzeń ex post (kto zawinił, jaki był powód) oraz ex ante (jakie działania należy podjąć, by zmniejszyć ryzyko, czyli co jest zaniedbaniem i kto je popełnia) i z reguły spoczywa na ludziach. Problemem jest jednak istnienie luk w zakresie odpowiedzialności za powstałe szkody czy zdarzenia niepożądane, w których uczestniczą ludzie i systemy sztucznej inteligencji, jakich nie da się wypełnić tradycyjnymi koncepcjami przypisania odpowiedzialności. W artykule wskazano na proponowany w literaturze przedmiotu sposób kompleksowego rozwiązania problemu luk w zakresie odpowiedzialności za sztuczną inteligencję, oparty na idei projektowania systemów socjotechnicznych umożliwiających znaczącą kontrolę człowieka, czyli systemów dostosowanych do ludzkich intencji i możliwości. Celem artykułu jest wskazanie na pilną potrzebę ciągłego poszukiwania odpowiedzi na pytanie: w jaki sposób można odpowiedzialnie kontrolować ewolucję robotów?
EN
Development of computational techniques, robotics, 3D printing and materials technologies enables the creation of advanced robotic systems that can autonomously reproduce and evolve. Emerging robotic evolution technology challenges existing AI ethics. The inherent adaptability, stochasticity and complexity of evolutionary systems pose numerous threats. It is difficult to underestimate the possible implications of two key functionalities of evolving robots: self-replication and random change of robot form and behavior. Self-replication allows robots to reproduce without human intervention. Mutations or random evolutionary changes can lead to undesirable and harmful behavior of robots, threatening human interests. Whenever a technology is developed that is not under direct human control and the process is unpredictable, questions of risk and liability arise. The article addresses both possible risk of harm and liability in connection with the key issue of human control over the process of evolution. The issue of responsibility for artificial intelligence was considered to be particularly important from both an ethical and legal point of view. In general, responsibility covers the full spectrum of events ex post (who is at fault, what was the reason), and ex ante (what actions should be taken to reduce the risk, i.e. what is negligence and who commits it), and usually rests with people. The problem, however, is the existence of gaps in the scope of liability for damages or adverse events involving people and artificial intelligence systems that cannot be filled with traditional concepts of assigning responsibility. The article indicates a method of comprehensively solving the problem of gaps in liability for artificial intelligence, proposed in the literature, based on the idea of designing social engineering systems that enable “meaningful human control”, i.e. systems adapted to human intentions and capabilities. The aim of the article is to indicate the urgent need for a continuous search for an answer to the question of how to responsibly control the evolution of robots.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.