Powiadomienia systemowe
- Sesja wygasła!
Identyfikatory
Warianty tytułu
Challenges for information security in the context of the development of artificial intelligence
Języki publikacji
Abstrakty
30 listopada 2022 r., wydaje się być przełomową datą we współczesnym rozwoju technologii, gdyż dokonano wówczas publicznej prezentacji narzędzia do konwersacji wykorzystującego mechanizmy sztucznej inteligencji, zwanego ChatGPT. Od tego momentu technologia staje się coraz bardziej popularna i wykorzystywana w wielu obszarach życia. W niniejszym artykule autor przedstawia krótką charakterystykę tej technologii oraz płynące z jej strony zagrożenia, których minimalizacja wymaga m.in. wprowadzenia ścisłych regulacji prawnych. Przedstawionych jest także kilka ogólnodostępnych narzędzi, których łatwa obsługa zachęca do tworzenia fałszywych treści i propagowania ich jako prawdziwe, co wiąże się z szeregiem kolejnych zagrożeń.
November 30, 2022, seems to be a breakthrough date in the modern development of technology, because a conversation tool using artificial intelligence mechanisms, called ChatGPT, was publicly presented at that time. Since then, the technology has become more and more popular and used in many areas of life. In this article, the author presents a short description of this technology and the threats it poses, the minimization of which requires, among others, introduction of strict legal regulations. Several publicly available tools are also presented, the ease of use of which encourages the creation of false content and propagating it as real, which is associated with a number of further threats.
Czasopismo
Rocznik
Tom
Strony
649--672
Opis fizyczny
Bibliogr. 11 poz., rys., tab.
Twórcy
autor
- Akademia Sztuki Wojennej
Bibliografia
- [1] Artificial Intelligence Index Report 2023, https://aiindex.stanford.edu/wp-content/uploads/2023/04/HAI_AI-Index-Report_2023.pdf.
- [2] Bostrom N., Yudkowsky E. (2014). The Ethics of Artificial Intelligence, The Cambridge Handbook of Artificial Intelligence, p. 316-334, Cambridge University Press.
- [3] A Presidental Document of the Executive Office of the President on 12/08/2020, https://www.federalregister.gov/documents/2020/12/08/2020-27065/promoting-the-use-of-trustworthy-artificial-intelligence-in-the-federal-government.
- [4] A Presidental Document of the Executive Office of the President on 11/01/2023, https://www.federalregister.gov/documents/2023/11/01/2023-24283/safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence.
- [5] Glorin S. (2023). Do ChatGPT and Other AI Chatbots Pose a Cybersecurity Risk? An Exploratory Study, International Journal of Security and Privacy in Pervasive Computing, Vol. 15, Issue 1, p. 1-11.
- [6] Joublin F., Ceravola A., Deigmoeller J., Gienger M., Franzius M., Eggert J., A Glimpse in ChatGPT Capabilities and its impact for AI research, Honda Research Institute Europe.
- [7] Levshun D., Kotenko I. (2023). A survey on artificial intelligence techniques for security event correlation: models, challenges, and opportunities, Artificial Intelligence Review, Vol. 56, p. 8547-8590, Springer.
- [8] Rosenblatt, F.(1959). The perceptron: A probabilistic model for information storage and organization in the brain., Psychological Review, 65(6), p. 386- 408.
- [9] The EU Artificial Intelligence Act, https://artificialintelligenceact.eu/
- [10] Su J., Yang W. (2023). Unlocking the Power of ChatGPT: A Framework for Applying Generative AI in Education, “ECNU Review of Education”, Vol. 6 (3), p. 355-366.
- [11] Zawadzki T. (2019). Współczesne możliwości tworzenia wirtualnych sieci społecznościowych, Przestępczość teleinformatyczna XXI, Gdynia.
Uwagi
Opracowanie rekordu ze środków MNiSW, umowa nr POPUL/SP/0154/2024/02 w ramach programu "Społeczna odpowiedzialność nauki II" - moduł: Popularyzacja nauki i promocja sportu (2025).
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-82f5d615-6e7a-4166-9125-670ea3aec66e
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.