The article aims to present two hostile tools employed in the cybersphere against internet users. The first one is doppelganger, and the second one is deepfake. The paper highlights some examples of using both to influence the social cognitive dimension in the infosphere. Diagrams and charts presented in the article depict the vast scope between society and the media, which is the main source of information and the nest for disinformation. The article discusses the use of artificial intelligence for hostile purposes and the possible means by which to gain resilience against disinformation.
PL
Intencją autora artykułu jest przedstawienie dwóch wrogich narzędzi stosowanych w cyberprzestrzeni przeciwko użytkownikom internetu. Pierwsze z nich to doppelgänger, a drugie to deepfake. W artykule wskazał przykłady wykorzystania obu metod dezinformacyjnych do oddziaływania na społeczny wymiar poznawczy w infosferze. Zaprezentowane w artykule diagramy i wykresy obrazują rozległy zakres relacji społeczeństwa z mediami, które w istocie są zarówno głównym źródłem informacji, jak i siedliskiem dezinformacji. Autor pokazał wykorzystanie sztucznej inteligencji do wrogich celów oraz konkretne kroki, jakie można podjąć, żeby uzyskać odporność na dezinformację.
The paper presents a computer system for detecting deep fake images in videos. The system is based on continuous wavelet transformation combined with a set of classifiers composed of a few convolutional neural networks of diversified architectures. Three different forms of forged images taken from the FaceForensics++ database are considered in numerical experiments. The results of experiments involving the proposed system have shown good performance in comparison to other current approaches to this particular problem.
The Artificial Intelligence Act (AI Act) may be a milestone of regulating artificial intelligence by the European Union. Regulatory framework proposed by the European Commission has the potential to serve as a benchmark worldwide and strengthen the position of the EU as one of the main players of the technology market. One of the components of the regulation are the provisions on deep fakes, which include the definition, classification as a “specific risk” AI system and transparency obligations. Deep fakes rightly arouse controversy and are assessed as a complex phenomenon, the negative use of which significantly increases the risk of political manipulation, and at the same time contributes to disinformation, undermining trust in information or in the media. The AI Act may strengthen the protection of citizens against some of the negative consequences of misusing deep fakes, although the impact of the regulatory framework in its current form will be limited due to the specificity of creating and disseminating deep fakes. The effectiveness of the provisions will depend not only on the enforcement capabilities, but also on the precision of phrasing provisions to prevent misinterpretation and deliberate abuse of exceptions. At the same time, the AI Act will not cover a significant part of deep fakes, which, due to the malicious intentions of their creators, will not be subject to the protection in the form of transparency obligations. This study allows for the analysis of provisions relating to deep fakes in the AI Act and proposing improvements that will take into account the specificity of this phenomenon to a greater extent.
W artykule dokonano krótkiego przeglądu zagadnień z obszaru sztucznej inteligencji oraz omówiono architekturę głębokiej sieci neuronowej Meso-4 na podstawie, której wykonano projekt i implementację przy użyciu danych z konkursu Deepfake Detection Challenge. Przeprowadzono również eksperymenty wraz z opracowaniem wyników, z których można wnioskować, że jest możliwe wytrenowanie głębokiej sieci neuronowej zdolnej do rozpoznawania manipulacji wideo tzw. deepfake.
EN
This paper gives a brief overview of the field of artificial intelligence and discusses the architecture of the Meso-4 deep neural network on which the design and implementation was based, using data from the Deepfake Detection Challenge. Experiments were also conducted with the development of results from which it can be concluded that it is possible to train a deep neural network capable of recognising video manipulation (deepfake).
Organizacje terrorystyczne w coraz większym zakresie, w różnych aspektach swojej działalności, wykorzystują nowe rozwiązania technologiczne – od komunikacji wewnętrznej, poprzez procesy rekrutacyjne, aż po przeprowadzanie skumulowanych ataków. Technologiczny rozwój umożliwia im skuteczne funkcjonowanie i sprawniejsze realizowanie wyznaczonych celów, niejednokrotnie znacznie zwiększając obręb prowadzonych operacji o narzędzia i środki, które były niedostępne jeszcze kilka lub kilkanaście lat temu. Niniejszy artykuł odnosi się do aspektu wykorzystania przez organizacje terrorystyczne nowych technologii w postaci dronów — zarówno tych bardziej tradycyjnych (ale zaawansowanych technologicznie), jak również tych wyposażonych w sztuczną inteligencję – i deep fake’ów, czyli fałszywych zdjęć i materiałów audio i wideo. Głównym celem jest zasygnalizowanie niebezpieczeństw, jakie niesie za sobą wykorzystywanie przez terrorystów nowych technologii, również sztucznej inteligencji, oraz zrodzona naukowa potrzeba dokładnej analizy tego zagrożenia.
EN
Terrorist organisations are increasingly taking advantage of new technologies in various aspects of their activity – from internal communication, to recruitment processes, to carrying out their attacks. Technological development allows them to operate effectively and achieve their goals more efficiently, often significantly increasing the scope of operations with tools and resources that were unavailable for such organisations a few years ago. This article addresses the use of new technologies by terrorist organisations on the example of drones - both more traditional ones (but still technologically advanced), as well as those equipped with artificial intelligence — and deep fakes, that is fake photos, audio, and video materials. The main purpose is to signal the perils of terrorists' use of new technologies, including artificial intelligence, and the need for a thorough analysis of this threat.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.