The paper presents a computer system for detecting deep fake images in videos. The system is based on continuous wavelet transformation combined with a set of classifiers composed of a few convolutional neural networks of diversified architectures. Three different forms of forged images taken from the FaceForensics++ database are considered in numerical experiments. The results of experiments involving the proposed system have shown good performance in comparison to other current approaches to this particular problem.
Organizacje terrorystyczne w coraz większym zakresie, w różnych aspektach swojej działalności, wykorzystują nowe rozwiązania technologiczne – od komunikacji wewnętrznej, poprzez procesy rekrutacyjne, aż po przeprowadzanie skumulowanych ataków. Technologiczny rozwój umożliwia im skuteczne funkcjonowanie i sprawniejsze realizowanie wyznaczonych celów, niejednokrotnie znacznie zwiększając obręb prowadzonych operacji o narzędzia i środki, które były niedostępne jeszcze kilka lub kilkanaście lat temu. Niniejszy artykuł odnosi się do aspektu wykorzystania przez organizacje terrorystyczne nowych technologii w postaci dronów — zarówno tych bardziej tradycyjnych (ale zaawansowanych technologicznie), jak również tych wyposażonych w sztuczną inteligencję – i deep fake’ów, czyli fałszywych zdjęć i materiałów audio i wideo. Głównym celem jest zasygnalizowanie niebezpieczeństw, jakie niesie za sobą wykorzystywanie przez terrorystów nowych technologii, również sztucznej inteligencji, oraz zrodzona naukowa potrzeba dokładnej analizy tego zagrożenia.
EN
Terrorist organisations are increasingly taking advantage of new technologies in various aspects of their activity – from internal communication, to recruitment processes, to carrying out their attacks. Technological development allows them to operate effectively and achieve their goals more efficiently, often significantly increasing the scope of operations with tools and resources that were unavailable for such organisations a few years ago. This article addresses the use of new technologies by terrorist organisations on the example of drones - both more traditional ones (but still technologically advanced), as well as those equipped with artificial intelligence — and deep fakes, that is fake photos, audio, and video materials. The main purpose is to signal the perils of terrorists' use of new technologies, including artificial intelligence, and the need for a thorough analysis of this threat.
False and rapidly disseminated information can model public sentiment, influence the results of democratic elections, create tensions in the international arena, and even cause armed conflicts. In the event of a crisis, disinformation may be a tool used to destabilize the internal situation of the state. In such a situation, unauthorized access to classified information may also have serious consequences. Contemporary digital devices and the systems that manage them do not require the average user to have fluent knowledge of IT systems and technical skills. However, the development of modern technologies determines the need for constant updating of knowledge in this field. It applies in particular to people who deal with the broadly understood state security.
PL
Fałszywe, szybko rozpowszechniające się informacje mogą modelować nastroje społeczne, wpływać na wyniki demokratycznych wyborów, powodować napięcia na arenie międzynarodowej, a nawet być przyczyną konfliktów zbrojnych. W przypadku zaistnienia sytuacji kryzysowej dezinformacja może być narzędziem wykorzystywanym w celu destabilizowania sytuacji wewnętrznej państwa. W takich okolicznościach poważne konsekwencje może mieć również dostęp osób niepowołanych do informacji niejawnych. Współczesne urządzenia cyfrowe i zarządzające nimi systemy nie wymagają od przeciętnego użytkownika biegłej znajomości systemów informatycznych i umiejętności technicznych. Jednak rozwój nowoczesnych technologii determinuje potrzebę ciągłego uaktualniania wiedzy w tym zakresie. Dotyczy to w szczególności osób, które zajmują się, szeroko rozumianym, bezpieczeństwem państwa.
The Artificial Intelligence Act (AI Act) may be a milestone of regulating artificial intelligence by the European Union. Regulatory framework proposed by the European Commission has the potential to serve as a benchmark worldwide and strengthen the position of the EU as one of the main players of the technology market. One of the components of the regulation are the provisions on deep fakes, which include the definition, classification as a “specific risk” AI system and transparency obligations. Deep fakes rightly arouse controversy and are assessed as a complex phenomenon, the negative use of which significantly increases the risk of political manipulation, and at the same time contributes to disinformation, undermining trust in information or in the media. The AI Act may strengthen the protection of citizens against some of the negative consequences of misusing deep fakes, although the impact of the regulatory framework in its current form will be limited due to the specificity of creating and disseminating deep fakes. The effectiveness of the provisions will depend not only on the enforcement capabilities, but also on the precision of phrasing provisions to prevent misinterpretation and deliberate abuse of exceptions. At the same time, the AI Act will not cover a significant part of deep fakes, which, due to the malicious intentions of their creators, will not be subject to the protection in the form of transparency obligations. This study allows for the analysis of provisions relating to deep fakes in the AI Act and proposing improvements that will take into account the specificity of this phenomenon to a greater extent.
W artykule dokonano krótkiego przeglądu zagadnień z obszaru sztucznej inteligencji oraz omówiono architekturę głębokiej sieci neuronowej Meso-4 na podstawie, której wykonano projekt i implementację przy użyciu danych z konkursu Deepfake Detection Challenge. Przeprowadzono również eksperymenty wraz z opracowaniem wyników, z których można wnioskować, że jest możliwe wytrenowanie głębokiej sieci neuronowej zdolnej do rozpoznawania manipulacji wideo tzw. deepfake.
EN
This paper gives a brief overview of the field of artificial intelligence and discusses the architecture of the Meso-4 deep neural network on which the design and implementation was based, using data from the Deepfake Detection Challenge. Experiments were also conducted with the development of results from which it can be concluded that it is possible to train a deep neural network capable of recognising video manipulation (deepfake).
Dezinformacja jest narzędziem propagandy, mającym na celu fałszowanie rzeczy-wistości, której zniekształcony obraz ma wpłynąć na odbiorcę i podejmowane przez niego decyzje. Choć nie jest to zjawisko nowe, to w czasach nieograniczonego dostępu do infor-macji, których treści nie są możliwe do zweryfikowania, jest to proceder szczególnie niebez-pieczny. Użytkownicy portali społecznościowych swoją aktywnością dowiedli, że za pomocą dostępnych im środków takich jak memy internetowe, trolling czy astroturfing, mogą wpłynąć na losy nie tylko swoje i swoich narodów, ale zmienić układ sił politycznych na świecie.
EN
The main aim of disinformation, as a tool of propaganda, is to falsify reality and in-fluencing the recipient of given information with its distorted image. Although manipulating people and their decisions via source information is not a new phenomenon as such, it be-comes particularly dangerous in the times of media allowing unlimited and free access to information from various sources whose content might not be verifiable. It is especially visi-ble in social media, whose users proved with their activities that using the means such as memes, trolling or astroturfing, that they can change not only their own fate, but also of entire societies they live in, and as a consequence they can alter the balance of political forces on an international level.
The article aims to present two hostile tools employed in the cybersphere against internet users. The first one is doppelganger, and the second one is deepfake. The paper highlights some examples of using both to influence the social cognitive dimension in the infosphere. Diagrams and charts presented in the article depict the vast scope between society and the media, which is the main source of information and the nest for disinformation. The article discusses the use of artificial intelligence for hostile purposes and the possible means by which to gain resilience against disinformation.
PL
Intencją autora artykułu jest przedstawienie dwóch wrogich narzędzi stosowanych w cyberprzestrzeni przeciwko użytkownikom internetu. Pierwsze z nich to doppelgänger, a drugie to deepfake. W artykule wskazał przykłady wykorzystania obu metod dezinformacyjnych do oddziaływania na społeczny wymiar poznawczy w infosferze. Zaprezentowane w artykule diagramy i wykresy obrazują rozległy zakres relacji społeczeństwa z mediami, które w istocie są zarówno głównym źródłem informacji, jak i siedliskiem dezinformacji. Autor pokazał wykorzystanie sztucznej inteligencji do wrogich celów oraz konkretne kroki, jakie można podjąć, żeby uzyskać odporność na dezinformację.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.