PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Powiadomienia systemowe
  • Sesja wygasła!
Tytuł artykułu

Dylematy odpowiedzialności za roboty sterowane sztuczną inteligencją

Wybrane pełne teksty z tego czasopisma
Identyfikatory
Warianty tytułu
EN
Dilemmas of responsibility for robots controlled by artificial intelligence
Języki publikacji
PL
Abstrakty
PL
Wielu naukowców na całym świecie zajmujących się prawem i ekonomią argumentuje za potrzebą ponownego przemyślenia środków prawnych, jeśli stosuje się je do ewentualnych szkód będących efektem zastosowania sztucznej inteligencji (robotów). Do tej pory nie istnieje jednak ogólne sformułowanie odpowiedzialności w wymienionych przypadkach, a proponowane rozwiązania różnią się w zależności od jurysdykcji. W niniejszym artykule, opierając się na analizie literatury i dokumentów źródłowych w postaci istniejących (lub proponowanych) aktów prawnych, przedstawiono problemy związane z deliktami robotów oraz podjęto próbę oceny wyzwań, przed którymi stoją decydenci w zakresie regulacji dotyczących deliktów robotów sterowanych sztuczną inteligencją w kontekście ich wpływu na rozwój postępu technologicznego. Zagadnienie to uznano za celowe. Jest ono istotne w zakresie zarządzania innowacjami. To, jak prawo reaguje na delikty robotów, jest kwestią o doniosłym znaczeniu: może stymulować bądź hamować rozwój sztucznej inteligencji. Ustalenie określonych ram prawnych w tym względzie ma także duże znaczenie w kontekście obowiązków po stronie tworzących i wdrażających określone rozwiązania. Ryzyko związane z odpowiedzialnością jest jednym z kluczowych czynników decydujących o sukcesie nowych technologii, produktów i usług. Odpowiednie zabezpieczenie przed ryzykiem jest niezbędne do zapewnienia społeczeństwu, że może ono zaufać nowej technologii mimo możliwości poniesienia szkody. W wyniku przeprowadzonej analizy stwierdzono, iż nadal brak odpowiedzi na pytanie: jak można, wykorzystując prawo, stymulować rozwój technologii? Stosowane systemy odpowiedzialności najczęściej nie są w tym względzie pomocne. Standardowe prawo dotyczące zaniedbań i odpowiedzialność za produkt nie odnoszą się odpowiednio do wielowymiarowych kwestii motywacyjnych, ważnych z punktu widzenia zarządzania innowacjami i rozwojem technologicznym. Występuje zatem konieczność prowadzenia dalszych badań w zakresie konstrukcji prawa określającego odpowiedzialność za delikty robotów/sztucznej inteligencji.
EN
Many legal and economic scientists around the world argue for the need to rethink legal measures when applying them to possible damages resulting from the use of artificial intelligence (robots). So far, however, there is no general formulation of liability in the above-mentioned cases, and the proposed solutions differ depending on the jurisdiction. This article, based on an analysis of the literature and source documents in the form of existing (or proposed) legal acts, presents problems related to robot tort and attempts to assess the challenges faced by decision-makers regarding the regulation of AI-controlled robot tort in the context of their influence on the development of technological progress. This issue was considered to be intentional. It is important from the point of view of innovation management. How the law responds to robot delicacies is a question of paramount importance: it can stimulate or inhibit the development of artificial intelligence. Establishing a specific legal framework in this area is also of great importance in the context of obligations on the part of creating and implementing specific solutions. Liability risk is one of the key success factors for new technologies, products and services. Adequate risk cover is essential to ensuring that the public can trust the new technology despite the potential for harm. As a result of the analysis, it was found that there is still no answer to the question of how to use the law to stimulate the development of technology. The liability systems used are most often not helpful in this regard. Standard law on negligence and product liability does not adequately address the multi-dimensional incentive issues important to managing innovation and technological development. Therefore, there is a need for further research on the construction of the law governing liability for robots/artificial intelligence.
Rocznik
Strony
13--24
Opis fizyczny
Bibliogr. 25 poz.
Twórcy
  • Akademia Górniczo-Hutnicza w Krakowie, Wydział Zarządzania
Bibliografia
  • [1] Maternowska, M., 2007. Zagadnienie odpowiedzialności w łańcuchach dostaw, [w:] TLM 2007. Total Logistic Management. XI konferencja logistyki stosowanej. Zakopane, materiały konferencyjne, Warszawa: Komitet Transportu Polskiej Akademii Nauk.
  • [2] Maternowska, M., 2010. Odpowiedzialność i regulacja jako instrumenty zarządzania ryzykiem w globalnych łańcuchach dostaw: determinanty stosowania, [w:] Kisperska-Moroń, D., Świerczek, A. (red.), Nowe wyzwania dla zarządzania w świetle współczesnych zagrożeń gospodarczych i cywilizacyjnych, Katowice: Wydawnictwo Wyższej Szkoły Zarządzania Ochroną Pracy.
  • [3] Maternowska, M., 2019. Nowe technologie i ich wpływ na łańcuchy dostaw. Sztuczna inteligencja, Studia Ekonomiczne, Zeszyty Naukowe Uniwersytetu Ekonomicznego w Katowicach, nr 388.
  • [4] Zalewski, T., 2020. Definicja sztucznej inteligencji, [w:] Lai, L., Świerczyński, M. (red.), Prawo sztucznej inteligencji, Warszawa: Wydawnictwo C.H. Beck.
  • NETOGRAFIA
  • [1] Armour, J., Eidenmüller, H., 2020. Self-Driving Corporations?, Harvard Business Law Review, s. 87-116, https://www.hblr.org/wp-content/uploads/sites/18/2020/03/HLB102_crop.pdf (07.05.2022).
  • [2] Bertolini, A., 2014. Robots and Liability – Justifying a Change in Perspective, https://www.academia.edu/5795375/Robots_and_Liability_Justifying_a_Change_in_Perspective (07.05.2022).
  • [3] Bertolini, A., 2020. Artificial Intelligence and Civil Liability. Legal Affairs, https://www.europarl.europa.eu/RegData/etudes/STUD/2020/621926/IPOL_STU(2020)621926_EN.pdf (07.05.2022).
  • [4] Bertolini, A., Riccaboni, M., 2020. Grounding the Case for a European Approach to the Regulation of Automated Driving: The Technology-Selection Effect of Liability Rules, European Journal of Law and Economics, nr 51(27), s. 243-284, https://link.springer.com/article/10.1007/s10657-020-09671-5 (06.05.2022).
  • [5] Bertolini, A., Salvini, P., Pagliai, T., Morachioli, A., Acerbi, G., Cavallo, F., Turchetti, G., Dario, P., 2016. On Robots and Insurance, https://link.springer.com/article/10.1007/s12369-016-0345- (03.05.2022).
  • [6] Carroll, K., 2021. Smart Cars are Getting Smarter: Legal Personhood for Self-Driving Vehicles, Working Paper Seton Hall University eRepository (06.05.2022).
  • [7] Casey, B., 2019. Robot Ipsa Loquitur, Georgetown Law Journal, nr 108(2), s. 225-286, https://www.law.georgetown.edu/georgetown-law-journal/wp-content/uploads/sites/26/2020/01/Casey_Robot-Ipsa-Loquitur.pdf (06.05.2022).
  • [8] De Chiara, A., Elizalde, I., Manna, E., Segura-Moreiras, A., 2021. Car Accidents in the Age of Robots, https://www.sciencedirect.com/science/article/pii/S0144818821000466 (06.05.2022).
  • [9] Gnas, A., 2021. Odpowiedzialność za roboty inteligentne, internetowy, Kwartalnik Antymonopolowy i Regulacyjny, nr 6(10), https://ikar.wz.uw.edu.pl/images/numery/ikar_6_10/iKAR_610-21_7-AGnas.pdf (06.05.2022).
  • [10] Guerra, A., Parisi, F., Pi, D., 2021a. Liability for robots I: legal challenges, Journal of Institutional Economics, https://doi.org/10.1017/S1744137421000825 (06.05.2022).
  • [11] Guerra, A., Parisi, F., Pi, D., 2021b. Liability for robots II: an economic analysis, Journal of Institutional Economics, https://doi.org/10.1017/S1744137421000837 (06.05.2022).
  • [12] Kiepas, A., 2020. Człowiek w świecie procesów cyfryzacji, Współczesne wyzwania i przyszłe skutki, „Filozofia i Nauka”, t. 8, cz. 1, https://journals.pan.pl/publication/134159/edition/117243/filozofia-i-nauka-2020-tom-8-czesc-1-czlowiek-w-swiecie-procesow-cyfryzacji-wspolczesne-wyzwania-i-przyszle-skutki-kiepas-andrzej?language=pl (06.05.2022).
  • [13] Lemley, M.A., Casey, B., 2019, Remedies for Robots, s. 1311-1396, https://lawreview.uchicago.edu/publication/remedies-robots (06.05.2022).
  • [14] Matsuzaki, H., Lindemann, G., 2016, The autonomy-safety-paradox of service robotics in Europe and Japan: a comparative analysis, AI & Society, nr 31(4), s. 501-517, https://link.springer.com/article/10.1007/s00146-015-0630-7 (06.05.2022).
  • [15] Michalski, R., 2018. ‘How to Sue a Robot’, Utah Law Review, nr 2018(5), s. 1021-1072, https://dc.law.utah.edu/cgi/viewcontent.cgi?article=1189&context=ulr (06.05.2022).
  • [16] Rachum-Twaig, O., 2020. Whose Robot is it Anyway? Liability for Artificial-Intelligence-Based Robots, University of Illinois Law Review, s. 1141-1176, https://www.illinoislawreview.org/wpcontent/uploads/2020/08/Rachum-Twaig.pdf (06.05.2022).
  • [17] Rahmatian, S., 1990. Automation Design: Its Human Problems, Systemic Practice, nr 3(1), s. 67-80, https://www.researchgate.net/publication/227086369_Automation_design_Its_human_problems (06.05.2022).
  • [18] Rozporządzenia Parlamentu Europejskiego i Rady w sprawie odpowiedzialności za działanie systemów sztucznej inteligencji z dnia 4 maja 2020 r., https://www.europarl.europa.eu/doceo/document/A-9-2020-0178_PL.html#title1/ (06.05.2022).
  • [19] Shavell, S., 2019. On the Redesign of Accident Liability for the World of Autonomous Vehicles, NBER WORKING PAPER SERIES, https://www.nber.org/system/files/working_papers/w26220/w26220.pdf (06.05.2022).
  • [20] Talley, E., 2019. Automatorts: How Should Accident Law Adapt to Autonomous Vehicles? Lessons from Law and Economics, https://www.hoover.org/sites/default/files/ip2-19002-paper.pdf (06.05.2022).
  • [21] Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles, https://www.sae.org/standards/content/j3016_202104/ (06.05.2022).
Uwagi
1. Opracowanie rekordu ze środków MEiN, umowa nr SONP/SP/546092/2022 w ramach programu "Społeczna odpowiedzialność nauki" - moduł: Popularyzacja nauki i promocja sportu (2022-2023).
2. Dwie numeracje bibliografii.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-e25faa80-fed3-4be6-891e-841edfbd7457
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.