Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 36

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Indeksowanie
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
EN
Locating a point in relation to a systematic division of sheets remains a key issue in computational geometry and GIS practice, especially in the context of for archival cartographic resources. The Krakow Local System (ULK), widely used in the past for mapping the city of Krakow, is still found across numerous analog and digital datasets. This paper presents spatial indexing algorithms for ULK: an encoder (point → sheet code) and a decoder (sheet code → sheet extent) that mirror the cascaded subdivision from 1:2000 down to 1:1000 and 1:500. The procedures are concise and constant-time O(1), which allows them to be used “on the fly”—for example, automatic derivation of the sheet code from coordinates (XY) and immediate attachment of the corresponding archival rasters, as well as computing a sheet frame prior to loading based on a code embedded in the filename. In combination with ULK ↔ PL-2000/1992 transformations, the approach supports resource consolidation, quality assurance (QA), and integration with GIS repositories and web services. In AI/ML workflows, the sheet code serves as a spatial label, facilitating automated data labelling, training set construction, and multimodal search. Importantly, these are not just sketches or pseudocode: the algorithms are provided as ready-touse implementations (VB6) and can be ported directly to a variety of environments—from GIS and CAD (e.g., MicroStation VBA), through Python/R scripts (code translator), database functions (e.g., SQL/PLpgSQL), and even spreadsheets (Excel/LibreOffice: formulas, Power Query). This makes them a practical foundation for indexing and managing large collections of archival rasters within modern GIS/AI pipelines.
PL
Lokalizacja punktu względem systematycznego podziału arkuszy pozostaje kluczowym zagadnieniem w geometrii obliczeniowej i praktyce GIS, szczególnie w kontekście archiwalnych zasobów kartograficznych. Krakowski System Lokalny (ULK), szeroko stosowany w przeszłości do mapowania Krakowa, nadal występuje w licznych analogowych i cyfrowych zbiorach danych. W niniejszym artykule przedstawiono algorytmy indeksowania przestrzennego dla ULK: koder (punkt → kod arkusza) i dekoder (kod arkusza → zakres arkusza), które odzwierciedlają kaskadowy podział od 1:2000 do 1:1000 i 1:500. Procedury są zwięzłe i działają ze stałą szybkością O(1), co pozwala na ich użycie „w locie” — na przykład automatyczne wyprowadzenie kodu arkusza ze współrzędnych (XY) i natychmiastowe dołączenie odpowiednich rastrów archiwalnych, a także obliczenie ramki arkusza przed załadowaniem na podstawie kodu osadzonego w nazwie pliku. W połączeniu z transformacjami ULK ↔ PL-2000/1992, podejście to wspiera konsolidację zasobów, zapewnienie jakości (QA) oraz integrację z repozytoriami GIS i usługami sieciowymi. W procesach AI/ML kod arkusza pełni funkcję etykiety przestrzennej, ułatwiając automatyczne etykietowanie danych, konstruowanie zestawów treningowych i wyszukiwanie multimodalne. Co ważne, nie są to jedynie szkice lub pseudokody: algorytmy są dostarczane jako gotowe do użycia implementacje (VB6) i mogą być bezpośrednio przenoszone do różnych środowisk — od GIS i CAD (np. MicroStation VBA), przez skrypty Python/R (tłumacz kodu), funkcje baz danych (np. SQL/PLpgSQL), a nawet arkusze kalkulacyjne (Excel/LibreOffice: formuły, Power Query). To czyni je praktyczną podstawą do indeksowania i zarządzania dużymi zbiorami rastrów archiwalnych w nowoczesnych procesach GIS/AI.
PL
W pracy zaprezentowano mechanizmy wsparcia standardu JSON (JavaScript Object Notation) dla przechowywania i przetwarzania danych w środowisku IBM DB2 LUV od wersji v11.1, które wykorzystywane są w szeroko rozumianych aplikacjach biznesowych. Coraz więcej danych JSON przechowywanych jest i przetwarzanych w środowiskach bazodanowych, zarówno bazach relacyjnych i nierelacyjnych (NoSQL). W środowisku bazodanowym IBM DB2 nie przewidziano specyficznego dla formatu JSON typu danych, tak jak jest to dla typu danych XML. Zastosowanie indeksów pozwala na wydajne sortowanie i filtrowanie danych, które przechowywane są we właściwościach dokumentów w formacie JSON.
EN
The paper presents the possibilities of storing, processing and exchanging JSON data (JavaScript Object Notation) in RDBMS IBM DB2 LUV from version v11.1, which are used in widely understood business applications. Increasingly JSON data is stored and processed in database environments, both relational and non-relational databases (NoSQL). The IBM DB2 database environment does not provide a JSON-specific data type as it is for the XML data type. The use of indexes allows efficient sorting and filtering of data, which are stored in the properties of documents in JSON format.
EN
The paper analyzes the main methods for determining the homogeneity of fine dispersed mixtures, as a result of which it has been found that all of them are characterized by significant complexity and low implementation rate. There has been developed a highly effective photoanalytical method for assessing homogeneity, which is based on software analysis of digital photo cross-cut of the mixture and determining the degree of its homogeneity based on comparison of the obtained color identifiers with the values of the reference database.
PL
W pracy przeanalizowano główne metody określania jednorodności drobno zdyspergowanych mieszanin, w wyniku czego stwierdzono, że wszystkie charakteryzują się dużą złożonością i niskim stopniem wdrożenia. Opracowano wysoce efektywną fotoanalityczną metodę oceny jednorodności, która opiera się na programowej analizie cyfrowego fotoprzekroju mieszaniny i określeniu stopnia jej jednorodności na podstawie porównania otrzymanych identyfikatorów barw z wartościami bazy referencyjnej.
PL
W pracy zaprezentowano możliwości przechowywania, przetwarzania i wymiany danych JSON (JavaScript Object Notation) w systemie zarządzania baz danych Oracle 12c, Oracle 18c i Oracle 19c, które wykorzystywane są w szeroko rozumianych aplikacjach biznesowych. Coraz więcej danych JSON przechowywanych jest i przetwarzanych w środowiskach bazodanowych, zarówno bazach relacyjnych i nierelacyjnych (NoSQL). Oracle nie zawiera specyficznego dla JSON typu danych, tak jak jest to dla typu danych XML. Zastosowanie indeksów pozwala na wydajne sortowanie i filtrowanie danych, które przechowywane są we właściwościach dokumentów w formacie JSON.
EN
The paper presents the possibilities of storing, processing and exchanging JSON data (JavaScript Object Notation) in RDBMS Oracle 12c, Oracle 18c i Oracle 19c, which are used in widely understood business applications. Increasingly JSON data is stored and processed in database environments, both relational and non-relational databases (NoSQL). Oracle do not contain a specific data type JSON, as it is for the XML data type. The use of indexes allows efficient sorting and filtering of data, which are stored in the properties of documents in JSON format.
PL
W pracy zaprezentowano możliwości przechowywania, przetwarzania i wymiany danych JSON (JavaScript Object Notation) w środowisku SQL Server 2016 i SQL Database, które wykorzystywane są w szeroko rozumianych aplikacjach biznesowych. Coraz więcej danych JSON przechowywanych jest i przetwarzanych w środowiskach bazodanowych, zarówno bazach relacyjnych i nierelacyjnych (NoSQL). SQL Server 2016 i SQL Server Database nie zawiera specyficznego dla JSON typu danych, tak jak jest to dla typu danych XML. Zastosowanie indeksów pozwala na wydajne sortowanie i filtrowanie danych, które przechowywane są we właściwościach dokumentów w formacie JSON.
EN
The paper presents the possibilities of storing, processing and exchanging JSON data (JavaScript Object Notation) in the SQL Server 2016 environment and SQL Database, which are used in widely understood business applications. Increasingly JSON data is stored and processed in database environments, both relational and non-relational databases (NoSQL). SQL Server 2016 and the SQL Server Database do not contain a specific data type JSON, as it is for the XML data type. The use of indexes allows efficient sorting and filtering of data, which are stored in the properties of documents in JSON format.
PL
Przedmiotem pracy jest analiza doświadczalna wpływu wybranych metod indeksowania na czas wykonania polecenia SQL. Badaniom poddano bazę testową wydzieloną z rzeczywistego systemu bankowego. Pomiary czasu wykonania zapytania SQL wykonano dla tabel zawierających do 1000000 rekordów. Badania przeprowadzono dla tabel nie zawierających indeksów oraz tabel zawierających indeksy. Do badań wykorzystano relacyjny system zarządzania bazą danych oparty na Oracle 9. Wyniki badań doświadczalnych pozwoliły na modernizację pracy systemu bankowego.
EN
The subject of the study is to analyse the impact of selected experimental methods of crawling on the execution time of SQL commands. The study involved test database separate from the actual banking system. Measurements runtime SQL queries made for tables containing up to 1000000 records. The study was conducted for tables that do not contain indexes and tables with indexes. The study used relational database management system based on Oracle. The experimental results have enabled the modernization work of the banking system. Analysis of the results showed that the use of indices in most of the cases can significantly reduce the waiting time for the results of SQL queries, especially for tables containing a large amount of records. In the cases studied to reduce the time it was even more than 6few hundred times.
EN
In this paper KinectRecorder comprehensive tool is described which provides for convenient and fast acquisition, indexing and storing of RGB-D video streams from Microsoft Kinect sensor. The application is especially useful as a supporting tool for creation of fully indexed databases of facial expressions and emotions that can be further used for learning and testing of emotion recognition algorithms for affect-aware applications. KinectRecorder was successfully exploited for creation of Facial Expression and Emotion Database (FEEDB) significantly reducing the time of the whole project consisting of data acquisition, indexing and validation. FEEDB has already been used as a learning and testing dataset for a few emotion recognition algorithms which proved utility of the database, and the KinectRecorder tool.
PL
W pracy przedstawiono kompleksowe narzędzie, które pozwala na wygodną i szybką akwizycję, indeksowanie i przechowywanie nagrań strumieni RGB-D z czujnika Microsoft Kinect. Aplikacja jest szczególnie przydatna jako narzędzie wspierające tworzenie w pełni zaindeksowanych baz mimiki i emocji, które mogą być następnie wykorzystywane do nauki i testowania algorytmów rozpoznawania emocji użytkownika dla aplikacji je uwzględniających. KinectRecorder został z powodzeniem wykorzystany do utworzenia bazy mimiki i emocji FEEDB, znacznie skracając czas całego procesu, obejmującego akwizycję, indeksowanie i walidację nagrań. Baza FEEDB została już z powodzeniem wykorzystana jako uczący i testujący zbiór danych dla kilku algorytmów rozpoznawania emocji, co wykazało przydatność zarówno jej, jak również narzędzia KinectRecorder.
PL
Powszechnie stosowane komercyjne narzędzia doboru indeksów działają na podstawie metod umożliwiających indeksowanie tabel będących częścią niezależnych zapytań SQL. W artykule przedstawiono ideę indeksowania tabel uwzględniającą gęstość grupy zapytań. Przedstawiono wyniki uzyskane autorską Metodą Doboru Indeksów (MDI), opierającą się na algorytmie genetycznym. Przeprowadzone badania pokazują, że dla różnych gęstości zastosowanie indeksu grupowego pozwala skrócić czas wykonania zapytań (o 15%), a także zmniejszyć rozmiar indeksów (o 68-90%).
EN
Commonly used commercial tools are based on a methodology that enables tables indexing for individual SQL queries. The article presents an original method, based on a genetic algorithm, for indexing tables for groups of queries in a relational database. Conducted experiments have shown that the use of indices for a group of queries can reduce the group execution time by 15% as well as can reduce the memory needs by 68-90%.
9
Content available Automatic indexer for Polish agricultural texts
EN
Today, the majority of resources are available in digital forms to acquire information. We have to search through collections of documents. In this paper text indexing which can improve searching is described. Next, indexing tool, the Agrotagger, which is useful for documents in the field of agriculture, is presented. Two available versions of the Agrotagger are tested and discussed. The Agrotagger is useful only for the English language despite the fact that it uses multilingual thesaurus Agrovoc. Because of the Agrotagger is not useful for texts in Polish, it is important to create similar tool appropriate for the Polish language. The problems connected with extensive inflection in languages such as Polish language in the process of indexing were discussed. In the final part of the paper, it is presented design and implementation of a system, based on the Polish language dictionary and the Agrovoc. Additionally some tests of implemented system are discussed.
10
Content available remote On the complete convergence of randomly weighted sums of random fields
EN
Let (…) be a d-dimensional random field indexed by some subset V of lattice Nd, which are stochastically dominated by a random variable X. Let (…) be a 2d-dimensional random field independent of (…) and such that (…) for some constant M. In this paper, we give conditions under which the following series (…), is convergent for some real t, some fixed p > 0 and all ε > 0. Here |n| is used for (…). The randomly indexed sums of field (…) are considered too.
EN
Contemporary research and production activity require searching and collecting a variety of information, this also applies to issues in the field of agriculture. Today, the vast majority of resources are available in a digital form. FAO on the portal of the Agricultural Information Management Standards presents an AgroTagger, tool for indexing documents in the field of agriculture, which is designed for the English language. Extraction of knowledge is not very convenient in languages such as Polish language with a very extensive inflection. In Polish, the following parts of speech inflect: verbs, nouns, numerals, adjectives, and pronouns. Proper indexing requires an initial reduction of grammatical forms, to which the authors have used the dictionary of the Polish language and have developed a programme of reducing. Moreover the algorithms for determining weights corresponding to the validity of the appointments taking into account the prevalence of terms and their position in the document were developed and implemented.
PL
Współcześnie działalność badawcza i produkcyjna wymaga wyszukiwania i gromadzenia różnorodnych informacji, dotyczy to także zagadnień z dziedziny rolnictwa. Obecnie większość zasobów dostępna jest w formie cyfrowej. FAO w ramach portalu Agricultural Information Management Standards prezentuje AgroTagger narzędzie do indeksowania dokumentów z dziedziny rolnictwa, które przeznaczone jest dla języka angielskiego. Ekstrakcja wiedzy jest utrudniona w językach takich jak język polski, posiadających bardzo rozbudowaną fleksję. W języku polskim odmienia się rzeczowniki, czasowniki, przymiotniki oraz zaimki osobowe. Właściwa indeksacja wymaga wstępnej redukcji form fleksyjnych, wobec czego wykorzystano słownik odmian języka polskiego i opracowano program redukujący. Ponadto opracowano i zaimplementowano algorytmy wyznaczania wag odpowiadających ważności terminów uwzględniające częstość występowania terminów i ich pozycję w dokumencie.
PL
Indeksowanie jest kluczowym elementem optymalizacyjnym systemów relacyjnych baz danych. Komercyjne narzędzia doboru indeksów (np. Toad, SQL Server Database Tuning Advisor) działają na podstawie metod przeznaczonych dla pojedynczych zapytań. W artykule przedstawiono podejście indeksowania tabel w ramach grupowych zapytań SQL uwzględniające kryterium rozmiaru indeksów. Przedstawione przykłady ilustrują, że zastosowanie podejścia grupowego pozwala zmniejszyć czas wykonania zapytań nawet o 30% w stosunku do rozwiązań uzyskanych klasycznymi metodami.
EN
This paper discusses the problem of minimizing the response time for a given database workload by a proper choice of indexes. The main objective of our contribution is to illustrate the database queries as a group and search for good indexes for the group instead of an individual query, including the size criterion. Examples illustrate that the use of a group approach can reduce queries block execution time of 30% compared to classical methods.
PL
Dokumenty w typowych archiwach lub bibliotekach indeksowane są za pomocą ich tytułów autorów i typów. Dodanie możliwości wyszukiwania za pomocą lokalizacji geograficznej zawieranych informacji, może uczynić proces przeszukiwania spójnym i wszechstronnym. W artykule opisano problemy projektowe i implementacje w trakcie tworzenia oprogramowania do zarządzania archiwami dokumentów zorientowanymi geograficznie. Oprócz zagadnień związanych bezpośrednio z indeksowaniem geograficznym dokumentów, poruszono również zaganiania praktyczne, związane z dostosowaniem archiwów dokumentów do specyfiki naszego kraju, jak uwzględnienie przepisów o informacji niejawnej, czy ochronie danych osobowych.
EN
In typical archives, documents are indexed primarily by subject, author, title, and, to a lesser extent, by document type. Adding the possibility of geographic indexing can make the searching process much more cohesive and comprehensive. This paper describes design and implementation problems with software for managing archives of geographically oriented documents. Apart from information about geographic indexing this paper also describes some issues specific for our country, e.g. work with documents that contain classified information or personal data.
PL
W artykule zaprezentowano techniki semantycznego indeksowania danych obrazowych w medycznych bazach danych z wykorzystaniem grafowych formalizmów lingwistyki matematycznej. Zaproponowane rozwiązania w głównej mierze predestynowane są do wizualizacji pochodzących z obrazowania CT (przestrzennych rekonstrukcji unaczynienia wieńcowego), niemniej jednak przedstawiona metodologia może również stanowić bazę dla innej klasy obrazów medycznych.
XX
The wide spread of multimedia medical databases has shown that the problem of storing and effectively searching for images containing specific disease cases that are significant for medical diagnostics is still fraught with great difficulties. The paper presents semantic indexing techniques in medical imaging databases using graph-based mathematical linguistic formalisms. The proposed solutions are mainly predestined for visualizations obtained from diagnostic examinations with the use of computed tomography (spatial reconstructions of the coronary vascularisation), but the presented methodology can also be a basis for a different class of medical images. The first section describes the methods and limitations in the context of storing and searching for data in medical databases of contemporary systems. The second section presents the historical background and discusses examples of systems. The third section describes next steps of the proposed methodology, which is additionally shown in Fig. 3. The last section summarizes the proposed solutions in the context of other systems and indicates further research directions. The obtained results confirm the possibility of using the proposed solutions in the specialized medical databases.
15
Content available remote Interactive 3D architectural visualization with semantics in web browsers
EN
This paper focuses on rendering, and access to visual and descriptive information about the digital architectural models on the Web. It was proposed to reach these contents with a help of deep linking, which allows to access to different views and descriptions from both the internal navigation system or from the browser, or search engine. Along with the HTML5 and WebGL it allows updating the link during the exploration of a virtual model, and remembers to re-use. Although all the methods were tested on architecture's models, it can be used in other interactive 3D applications.
PL
Artykuł omawia problematykę zaawansowanego indeksowania i wyszukiwania danych w środowiskach baz danych. Zagadnienia zostały przedstawione na przykładzie rozwiązań firmy Oracle: Oracle Text, Oracle Ultra Search i Oracle Secure Enterprise Search. W artykule zaprezentowano przykładowe implementacje ukazujące możliwości tych technologii w różnorodnych zastosowaniach. W pracy zawarto również wyniki eksperymentów wykonanych na przygotowanych aplikacjach.
EN
The article discusses the issues of advanced indexing and retrieving data in database environments. The issues are presented on the example of Oracle solutions: Oracle Text, Oracle Ultra Search and Oracle Secure Enterprise Search. The article presents examples which showing implementations of these technologies in various applications. The paper also contains results of experiments carried out on the prepared applications.
PL
Artykuł zawiera opis zaprojektowanego przez autorów w pełni przezroczystego systemu indeksowania dla obiektowej bazy danych opartej na stosowej architekturze (SBA, Stack-Based Architecture). Bazując na solidnym fundamencie SBA autorzy zaproponowali rozwiązania unikalne na polu indeksowania w rozproszonych obiektowych bazach danych. U podstaw zaimplementowanego systemu indeksowania leży moduł zarządzania indeksami oparty na autorskim mechanizmie automatycznych wyzwalaczy aktualizacji indeksów, który jest odpowiedzialny za utrzymanie zbieżności indeksów z danymi. Elastyczność opracowanego rozwiązania umożliwia m.in. optymalizacje przetwarzania predykatów selekcji opartych o dowolne deterministyczne wyrażenia kluczowe.
EN
The paper describes fully transparent indexing system for an object-oriented database based on SBA (Stack-Based Architecture). Relying on solid fundament (i.e. SBA) authors designed unique solutions in the area of indexing in distributed object databases. The engine of indexing is an indices management module based on automatic index update triggers responsible for maintaining the cohesion between indices and data. The flexibility of the designed solution enables optimisation of processing of selection predicates built using arbitrary deterministic expressions.
PL
W artykule przedstawiono przegląd istniejących rozwiązań w dziedzinie reprezentowania kształtów trójwymiarowych, stosunkowo nowym podejściu do opisywania obiektów w przetwarzaniu, rozpoznawaniu i indeksowaniu obrazów. Deskryptory kształtu 3D stają się coraz potrzebniejsze i coraz powszechniej stosowane. Wynika to z rozwoju sprzętu komputerowego, a co za tym idzie możliwości szybkiego przetwarzania skomplikowanych scen trójwymiarowych. Znajduje się przy tym kolejne obszary zastosowań trójwymiarowego opisu obiektów, m.in. w biometrii, systemach CAD i indeksowaniu.
EN
In the paper a brief survey on existing approaches to the representation of three-dimensional shapes was presented. It is a new way of describing objects in image processing, recognition and indexing. The 3D shape descriptors become more and more useful and widely used. Rapid development of computer hardware and the possibilities of fast processing of three-dimensional scenes cause it. Many new applications of 3D shape description can be easily found, e.g. in biometrics, CAD systems and image retrieval.
EN
The effective retrieval of three-dimensional shapes is a very crucial problem nowadays. It has to be not only efficient but also carried out in reasonable time. The last demand is especially difficult as 3D objects are usually built using lots of data (vertices, patches, etc.). That was the reason for minor interest dedicated few decades ago by scientists to them. At present, this problem became less important, thanks to the advances in computer hardware development. Now, one can find many new applications of 3D models, e.g. in CAD systems, entertainment, virtual reality, biometrics and image retrieval. In order to work with those objects three-dimensional shape descriptors are used. Those algorithms are created to represent objects independently of various problems concerning them, e.g. affine transformations, noise, occlusions. The result of experimental examination of two 3D shape descriptors is provided in the paper. The research was performed using the models from the "Princeton Shape Benchmark" database. This database is very popular in the task of experimental evaluation of 3D shape descriptors. In the paper two methods of that type are explored - Extended Gaussian Image and Shape Distributions - in the problem of 3D shape retrieval.
PL
Skuteczne wyszukiwanie kształtów trójwymiarowych w multimedialnych bazach danych jest istotnym problemem. Musi być ono nie tylko efektywne, ale i wykonywane w rozsądnym czasie. Ten drugi warunek jest szczególnie trudny do spełnienia, ponieważ obiekty 3D są zazwyczaj skonstruowane z użyciem dużej ilości danych (wierzchołki, powierzchnie, itp.). Było to dawniej powodem mniejszego zainteresowania naukowców tym zagadnieniem. Obecnie, problem ten stał się mniej znaczący, dzięki postępowi technicznemu w dziedzinie sprzętu komputerowego. Możemy więc aktualnie znaleźć wiele zastosowań modeli 3D, np. w komputerowo wspomaganym projektowaniu, rozrywce, rzeczywistości wirtualnej, biometrii oraz wyszukiwaniu obrazów. Aby móc pracować z tego typu obiektami stosowane są deskryptory kształtu. Te algorytmy są tworzone po to, by reprezentować obiekty niezależnie od poszczególnych problemów ich dotyczących, np. przekształceń afinicznych, szumu, okluzji. W artykule przedstawiono wyniki porównania eksperymentalnego dwóch deskryptorów kształtu 3D. Badania wykonano z użyciem modeli z bazy "Princeton Shape Benchmark". Baza ta jest bardzo popularna w ocenie deskryptorów kształtu 3D. W artykule dwie metody tego typu są badane - Rozszerzone Obrazy Gaussa oraz Rozkłady Kształtu - w kontekście problemu indeksowania kształtów 3D.
PL
W artykule przedstawiono budowę wewnętrzną oraz zasadę działania sprzętowo-programowego bloku realizującego analizę danych z obrazowego detektora ruchu. System zrealizowano za pomocą 2 identycznych procesorów 8-bitowych pracujących synchronicznie, jednego 32-bitowego procesora typu BA12 [4] oraz zestawu tablic pamięci. Algorytm analizy obrazu jest dwuetapowy. W pierwszym etapie następuje transformacja geometryczna umożliwiająca w przyszłości analizę odległości, wielkości i prędkości wykrytych obiektów. Drugi etap jest typowym indeksowaniem wykrytych obiektów. System został wykonany praktycznie z wykorzystaniem układu FPGA i potwierdza prawidłowość działania zaproponowanego rozwiązania.
EN
In the paper the structure and operation of hardware-software block for data analysis FROM image detector is presented. The system consists of 2 identical 8-bit custom processors working synchronously, single 32-bit processor BA12 [4] and the set of memory tables. The algorithm is composed of two phases. In the first phase, the geometrical transformation needed for distance and size measuring of the detected objects is calculated. During the second phase, the detected objects are indexed. The system has been practically realized using FPGA and works correctly, which confirms the correctness of the proposed idea.
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.