Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Powiadomienia systemowe
  • Sesja wygasła!
  • Sesja wygasła!
  • Sesja wygasła!

Znaleziono wyników: 1

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
1
Content available remote Dylematy odpowiedzialności za roboty sterowane sztuczną inteligencją
PL
Wielu naukowców na całym świecie zajmujących się prawem i ekonomią argumentuje za potrzebą ponownego przemyślenia środków prawnych, jeśli stosuje się je do ewentualnych szkód będących efektem zastosowania sztucznej inteligencji (robotów). Do tej pory nie istnieje jednak ogólne sformułowanie odpowiedzialności w wymienionych przypadkach, a proponowane rozwiązania różnią się w zależności od jurysdykcji. W niniejszym artykule, opierając się na analizie literatury i dokumentów źródłowych w postaci istniejących (lub proponowanych) aktów prawnych, przedstawiono problemy związane z deliktami robotów oraz podjęto próbę oceny wyzwań, przed którymi stoją decydenci w zakresie regulacji dotyczących deliktów robotów sterowanych sztuczną inteligencją w kontekście ich wpływu na rozwój postępu technologicznego. Zagadnienie to uznano za celowe. Jest ono istotne w zakresie zarządzania innowacjami. To, jak prawo reaguje na delikty robotów, jest kwestią o doniosłym znaczeniu: może stymulować bądź hamować rozwój sztucznej inteligencji. Ustalenie określonych ram prawnych w tym względzie ma także duże znaczenie w kontekście obowiązków po stronie tworzących i wdrażających określone rozwiązania. Ryzyko związane z odpowiedzialnością jest jednym z kluczowych czynników decydujących o sukcesie nowych technologii, produktów i usług. Odpowiednie zabezpieczenie przed ryzykiem jest niezbędne do zapewnienia społeczeństwu, że może ono zaufać nowej technologii mimo możliwości poniesienia szkody. W wyniku przeprowadzonej analizy stwierdzono, iż nadal brak odpowiedzi na pytanie: jak można, wykorzystując prawo, stymulować rozwój technologii? Stosowane systemy odpowiedzialności najczęściej nie są w tym względzie pomocne. Standardowe prawo dotyczące zaniedbań i odpowiedzialność za produkt nie odnoszą się odpowiednio do wielowymiarowych kwestii motywacyjnych, ważnych z punktu widzenia zarządzania innowacjami i rozwojem technologicznym. Występuje zatem konieczność prowadzenia dalszych badań w zakresie konstrukcji prawa określającego odpowiedzialność za delikty robotów/sztucznej inteligencji.
EN
Many legal and economic scientists around the world argue for the need to rethink legal measures when applying them to possible damages resulting from the use of artificial intelligence (robots). So far, however, there is no general formulation of liability in the above-mentioned cases, and the proposed solutions differ depending on the jurisdiction. This article, based on an analysis of the literature and source documents in the form of existing (or proposed) legal acts, presents problems related to robot tort and attempts to assess the challenges faced by decision-makers regarding the regulation of AI-controlled robot tort in the context of their influence on the development of technological progress. This issue was considered to be intentional. It is important from the point of view of innovation management. How the law responds to robot delicacies is a question of paramount importance: it can stimulate or inhibit the development of artificial intelligence. Establishing a specific legal framework in this area is also of great importance in the context of obligations on the part of creating and implementing specific solutions. Liability risk is one of the key success factors for new technologies, products and services. Adequate risk cover is essential to ensuring that the public can trust the new technology despite the potential for harm. As a result of the analysis, it was found that there is still no answer to the question of how to use the law to stimulate the development of technology. The liability systems used are most often not helpful in this regard. Standard law on negligence and product liability does not adequately address the multi-dimensional incentive issues important to managing innovation and technological development. Therefore, there is a need for further research on the construction of the law governing liability for robots/artificial intelligence.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.