Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 28

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  camera calibration
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
EN
The modern manufacturing or transportation machines that are used in industrial processes require continuous supervision in certain circumstances and even manual control by a human. Despite the fact the machines are more and more reliable and accurate than they used to be there is still the need for manual and time-consuming programming and safety control, especially when the external conditions change. For the operation of large machines, where the risk of damage and even disaster exists, an additional supervisory system based on vision devices could be utilized. The vision systems are commonly used in a range of simple 2D detection as well as very precise 3D reconstruction. The stereovision systems could be applied for unusual operations, especially in terms of safety and collision avoidance, such as crane observations while transporting a heavy load, robot and CNC machine preparation and normal operation. Through the use of optical devices the observed objects could be quickly positioned. In this research a test bench for stereovision reconstruction for the example of a robotic arm has been presented. The calibration procedures have been explained and accuracy tests in a large measuring volume were performed. Finally the possibilities of the applications and the utilization of such a system have been assessed.
2
Content available remote Real-time camera pose estimation based on volleyball court view
EN
The use of technology in sports has increased in recent years. One of the most influential of these technologies is referee support systems. Team sports such as volleyball require accurate and robust tracking systems that do not affect either the players or the court. This paper introduces the application of intrinsic and extrinsic camera calibration in a 12-camera volleyball referee system. Intrinsic parameters are calculated by using the classic pinhole model and Zhang’s method. To perform extrinsic calibration in real time, the volleyball court is treated as a global calibration artifact. Calibration keypoints are defined as court-line intersections. In addition, a new keypoint detection algorithm is proposed. It enables achievement of an accurate camera pose in regard to the court. With all 12 cameras calibrated in a common coordinate system, a dynamic camera stereo pair creation is possible. Therefore, with known ball 2D image coordinates, the 3D real ball coordinates can be reconstructed and the ball trajectory can be estimated. The performance of the proposed method is tested on a synthetic data set, including 3Ds Max rendering and real data scenarios. The mean camera pose error calculated for data biased with keypoint detection errors is approximately equal to 0.013% of the measurement volume. For the real data experiment with a human hand phantom, it is possible to determine the presence of the human phantom on the basis of the ball reflection attitude.
EN
So far too many examinations concerning the possibility of the application action cameras weren’t conducted in UAV photogrammetric studies. However in the recent time development of the action cameras production technology he let receive sensors which are light, userfriendly, and most importantly can gain images and video sequences of high resolution. The essential meaning has taking into account the camera’s influencing factors in UAV photogrammetry. Due to the fact that the action cameras are non-metric cameras the significant influence on the quality of photogrammetric studies has a stability internal orientation of elements of such cameras. Within the framework of carried out research calibration of five GoPro Hero 4 Black. The calibration of cameras was carried out on different calibration tests in the GML Camera Calibration Toolbox and Agisoft Lens software. Different calibration setups and processing are presented and discussed in this article. Additionally a repetitiveness of achieved results of the calibration was examined in five GoPro cameras Hero 4 Black. Dedicated calibration templates in the form of chessboards were used to the calibration. As a part of the research a comparative analysis of the results have been done. Based on performed examinations a repetitiveness of determined internal orientation elements was checked under different video acquisition modes.
EN
This paper presents a comprehensive metrological analysis of the Microsoft Kinect motion sensor performed using a proprietary flat marker. The designed marker was used to estimate its position in the external coordinate system associated with the sensor. The study includes calibration of the RGB and IR cameras, parameter identification and image registration. The metrological analysis is based on the data corrected for sensor optical distortions. From the metrological point of view, localization errors are related to the distance of an object from the sensor. Therefore, the rotation angles were determined and an accuracy assessment of the depth maps was performed. The analysis was carried out for the distances from the marker in the range of 0.8-1.65 m. The maximum average error was equal to 23 mm for the distance of 1.6 m.
EN
Image sequences, in particular digital video sequences, are characterised by the features which result in their high potential as measurement data. However, as early as at the stage of visual assessment of digital film images, originating, in particular, from amateur cameras, occurrence of some deformations may be observed, which may highly influence the results of measurements performed using these images; such deformations differ from deformations occurred in the case of static photographic images. It results both, by the method of image recording, using an electronic shutter and interlaced or progressive scanning, as well as the method of file recording and compression. It is worth to notice the systematic nature of such deformations, which highly depend on mutual motions of a camera and recorded objects. The objective of presented research works was to develop the mathematical description of image deformations, as a function of motion parameters. This would allow for adaptation of the camera calibration process to the demands of sequential imaging, as well as for modification of algorithms of measurements using self-calibration, and, as a result, minimisation of deformations. Another objective was to analyse the influence of deformations, typical for digital film images, on the results of measurements performed using these images, by means of series of experiments, which were based on multiple calibration of static and a moving camera, also with the use of a spatial test field. The first part was made by developing formulas based on some geometric relations, using some simplifications. On the stage of experimental research a certain degree of compatibility of experimental results and theoretical assumptions were confirmed.
PL
Zobrazowania sekwencyjne, a w szczególności sekwencje filmowe, posiadają cechy, dzięki którym mogą mieć duży potencjał pomiarowy. Należą do nich między innymi systematyka i stosunkowo duża częstotliwość obrazowania, skutkujące dużą liczbą obserwacji oraz podobieństwem sąsiednich obrazów (co ma znaczenie przy automatyzacji pomiarów), a ponadto zmniejszony wkład pracy operatora kamery, możliwość pozyskiwania i przetwarzania w czasie rzeczywistym oraz ogromna i nadal zwiększająca się dostępność zobrazowań. Jednak już na etapie oceny wzrokowej cyfrowych zobrazowań filmowych, zwłaszcza pochodzących z kamer określanych powszechnie jako amatorskie, zauważyć można występowanie pewnych zniekształceń, które mogą mieć znaczący wpływ na wyniki pomiarów. Jest to spowodowane zarówno sposobem rejestracji, z wykorzystaniem migawki elektronicznej i przeplotowego lub progresywnego skanowania, jak i metodami zapisu i kompresji plików. Warto zauważyć, iż są to w dużym stopniu deformacje systematyczne, uzależnione od wzajemnego ruchu kamery i badanego obiektu. Celem opisanych w artykule badań była próba opisu, typowych dla cyfrowych zobrazowań filmowych, zniekształceń dynamicznych, w funkcji parametrów ruchu kamery względem obiektu, jak również próba zbadania rozkładu deformacji poprzez wykonane w odpowiedni sposób wielokrotne kalibracje kamery, w celu porównania otrzymanych wartości z rozważaniami teoretycznymi. Pierwsza część została wykonana, poprzez wyprowadzenie w oparciu o relacje geometryczne, wzorów, opisujących deformacje dynamiczne obrazu, w funkcji współrzędnych tłowych, prędkości liniowej lub kątowej, czasu rejestracji pojedynczej linii obrazu oraz odległości obrazowej i odległości kamery od obiektu. Część druga, eksperymentalna, obejmowała z kolei analizy rozkładu zniekształceń dynamicznych dla kilku przykładowych sekwencji, zarejestrowanych w trakcie obrotów kamery wokół poszczególnych osi układu współrzędnych. Analizując wyniki eksperymentów, potwierdzono pewną zgodność występujących rzeczywistych zniekształceń z przewidywaniami, które pojawiły się na etapie rozważań teoretycznych. Niestety nie udało się przeprowadzić konkretnych analiz liczbowych, ponieważ na tym etapie nie opracowano jeszcze metody wyznaczenia czasu rejestracji pojedynczej linii obrazu, co uniemożliwiło oszacowanie wartości teoretycznych deformacji.
6
Content available Accuracy analysis of automatic distortion correction
EN
The paper addresses the problem of the automatic distortion removal from images acquired with non-metric SLR camera equipped with prime lenses. From the photogrammetric point of view the following question arises: is the accuracy of distortion control data provided by the manufacturer for a certain lens model (not item) sufficient in order to achieve demanded accuracy? In order to obtain the reliable answer to the aforementioned problem the two kinds of tests were carried out for three lens models. Firstly the multi-variant camera calibration was conducted using the software providing full accuracy analysis. Secondly the accuracy analysis using check points took place. The check points were measured in the images resampled based on estimated distortion model or in distortion-free images simply acquired in the automatic distortion removal mode. The extensive conclusions regarding application of each calibration approach in practice are given. Finally the rules of applying automatic distortion removal in photogrammetric measurements are suggested.
PL
Publikacja ma na celu przedstawienie wyników automatycznego usuwania dystorsji dla niemetrycznej kamery z obiektywem stałoogniskowym. Z punktu widzenia fotogrametrii pojawia się zasadnicze pytanie, czy dokładność określenia dystorsji dla danego typu obiektywu (a nie egzemplarza) jest wystarczająca, żeby otrzymać oczekiwane dokładności pomiaru fotogrametrycznego. W tym celu wykonano dwa rodzaje obliczeń kontrolnych. Pierwsze obliczenia to kalibracja kamery w wariantach zapewniających szeroką dyskusję wyników, wykonana w oprogramowaniu zapewniającym podanie pełnej analizy dokładności. Dodatkowo każdy wariant został sprawdzony poprzez kalibrację kontrolną, którą policzono na podstawie pomiaru zdjęć z fizycznie usuniętym wpływem dystorsji. Drugi etap obliczeń – analiza dokładności – polegał na wykonaniu pomiarów sprawdzających punktów kontrolowanych na zdjęciach dla wszystkich 3 zestawów przyjętych lub obliczonych elementów orientacji wewnętrznej oraz dystorsji usuniętej automatycznie lub programem, na podstawie wyników kalibracji. W publikacji zamieszczono obszerny komentarz dotyczący praktycznych aspektów stosowania każdej z tych metod kalibracji. Wniosek ostateczny podaje zasady stosowania wyników automatycznej redukcji dystorsji w zastosowaniach fotogrametrycznych.
7
Content available remote Structured light camera calibration
EN
Structured light camera which is being designed with the joined effort of Institute of Radioelectronics and Institute of Optoelectronics (both being large units of the Warsaw University of Technology within the Faculty of Electronics and Information Technology) combines various hardware and software contemporary technologies. In hardware it is integration of a high speed stripe projector and a stripe camera together with a standard high definition video camera. In software it is supported by sophisticated calibration techniques which enable development of advanced application such as real time 3D viewer of moving objects with the free viewpoint or 3D modeller for still objects.
8
PL
W pracy przedstawiono dedykowany układ pomiarowy do skanowania geometrii przedmiotu obrabianego na obrabiarce CNC, wymagający jednak precyzyjnego zorientowania skanera 3D względem maszynowego układu odniesienia obrabiarki CNC. Przedstawiono techniki kalibracji z użyciem wielobarwnych tablic kalibracyjnych i świateł strukturalnych, jak też stosowane w kalibracji i skanowaniu metody geometryczne oraz techniki tworzenia obrazów do kalibracji z tzw. kamery wirtualnej. Ponadto przedstawiono wpływ nieliniowej charakterystyki wyświetlania projektora i sposoby jej kompensacji.
EN
In the paper a dedicated measurement system for the 3D geometry scanning of the workpieces on the CNC machine tools is presented, which requires a precise knowledge about its relative position and orientation according to the reference coordinate system of the CNC machine tool. We present the calibration methods based on the colour calibration patterns and structural light as well as some geometrical methods usedfor the calibration and scanning. Moreover, some methods applied for the synthesis of images from virtual cameras are discussed as well as the influence of the nonlinear characteristics of the light projectors and methods of its compensation.
9
Content available remote Data fusion in web-based visualization of 3D scene semantic model
EN
In the paper, the subsystem for graphical visualization of semantic messages has been proposed and configuration dataflow has been described. The key problem in 3D object rendering over video camera image is fusion of parameters collected during camera calibration and pose estimation with models of visualized objects. Pose estimation results and transformation matrix setup were described. Proposed system has been developed in HTML5 internet web page format that uses portable JavaScript language and WebGL library that make use of GPU device. Presented prototype can be used by a web browser on desktop PC as well as on mobile device. No third-party software is necessary.
PL
W artykule przedstawiono wyniki badań doświadczalnych na temat wpływu oświetlenia na dokładność procesu kalibracji kamer w wizyjnym systemie pozycjonowania detali w obrabiarkach sterowanych numerycznie. Przeanalizowano również wpływ czasu ekspozycji na dokładność uzyskanych parametrów kamer niezbędnych do kalibracji systemu, co umożliwiło opracowanie metody automatycznego dostosowania czasu ekspozycji przydatnej dla zwiększenia dokładności uzyskiwanych wyników kalibracji.
EN
The article presents the results of experimental studies on the impact of lighting on the accuracy of the camera calibration process in the system of the vision based positioning of workpieces on numerically controlled machine tools. The influence of exposure time on the accuracy of the obtained camera parameters necessary for its calibration has been also analysed, allowing the development of a method of automatic adjustment of exposure time useful for more accurate calibration results.
EN
The article describes an application for calibration of a stereovision camera setup constructed for the needs of an electronic travel aid for the blind. The application can be used to calibrate any stereovision system consisting of two DirectShow compatible cameras using a reference checkerboard of known dimensions. A method forexperimental verification of the correctness of the calibration is also presented. The developed software is intended for calibration of mobile stereovision systems that focus mainly on obstacle detection.
PL
Pomiar skrajni budowli linii kolejowej jest zagadnieniem bardzo praktycznym, realizowanym na całym świecie przy pomocy różnych systemów pomiarowych. Pomiar ten ma na celu głównie określenie granic przestrzeni, jakich nie może przekroczyć żaden obiekt (np. budynek), znajdujący się przy torze. W niniejszym artykule dokonano przeglądu wybranych, istniejących systemów pomiarowych służących do określenia skrajni budowli. Aktualnie pracujące systemy oparte są głównie na trzech grupach metod: fotogrametrycznej – wykorzystującej parę zdjęć, metodzie profili świetlnych zadawanych światłem lasera i rejestrowanych przez szybką kamerę cyfrową oraz metodzie bazującej na pomiarze dalmierzem laserowym lub skanerem laserowym. W systemach najbardziej zaawansowanych łączy się powyższe metody pomiarowe. W opracowaniu wykazano wady i zalety poszczególnych systemów oraz dokonano podsumowania technologicznego wykorzystanych urządzeń pomiarowych. Jak wynika z przeprowadzonych badań literaturowych, aktualnie w przypadku systemów dedykowanych diagnostyce skrajni dominują najczęściej rozwiązania oparte na skanerach laserowych, pozyskujących dane w postaci profili rejestrowanych prostopadle do kierunku jazdy, wsparte ewentualnie systemami wizyjnymi. Natomiast w przypadku uniwersalnych mobilnych systemów widać wyraźną dominację wspólnych konfiguracji skanerów laserowych I kamer cyfrowych wspartych rejestracją INS/GNNS. W tych systemach pomiar obiektów jest odniesiony do globalnego układu współrzędnych, a następnie, po detekcji główek szyn, odbywa się transformacja do układu osi toru. Wstępna analiza prowadzi do wniosku, że dokładność pomiaru skrajni jest wyższa dla systemów specjalistycznych niż dla uniwersalnych.
EN
Measuring of railway structure clearances is a very practical issue, and the operation itself is performed all over the world using various measuring systems. The measurement is aimed chiefly at determining the limits of space that no structure (e.g. a building) located close to the railway track may cross. This paper provides a review of measurement systems used to determine clearance limits of railway buildings. Systems currently in use are based mainly on three groups of measuring methods: the photogrammetric method, which employs a pair of images, the method of light profiles, which are applied by the laser light and recorded by means of a high-speed digital camera, and the method based on laser radar or laser scanner (lidar) measurements. Those most advanced systems combine the above-referenced measurement methods. The paper demonstrates flaws and advantages of particular systems and provides a technological summary of measuring equipment utilized in them. It results from literature queries performed that presently, in the case of systems dedicated to railway clearance diagnostics, these are solutions based on laser scanners, which dominate most often, and which acquire data in the form of crosswise profiles that are recorded perpendicularly to the direction of travel, supported possibly by vision systems. On the other hand, in the case of universal mobile systems, one can notice a distinct domination of joint configurations of laser scanners and digital cameras, supported by INS/GNNS recording. In those systems the measurement of structures is referred to the global system of co-ordinates, and later, upon the detection of rail heads, a transformation to the rail axis arrangement takes place. The preliminary analysis leads to a conclusion that the accuracy of rail clearance measurement is higher in the case of specialised systems as compared to universal ones.
PL
Cechy charakterystyczne systemów wizyjnych stosowanych dla potrzeb pomiaru skrajni można podzielić na trzy grupy: opisujące geometrię odwzorowania, radiometrię i specyfikację techniczną kamery. Geometrię odwzorowania wyznacza się w procesie kalibracji kamery, która dostarcza takich parametrów jak położenie środka rzutów w stosunku do układu obrazu oraz współczynniki funkcji aproksymującej błędy obiektywu i nośnika obrazu. Badanie radiometrii zwykle obejmuje wyznaczenie rozdzielczości układu obiektyw-nośnik obrazu, ostrości i kontrastu (funkcja MTF lub SFR, gamma), zakresu tonalnego, szumu, odwzorowania kolorów. Pozyskiwanie obrazów charakteryzują takie czynniki jak częstotliwość akwizycji oraz przepustowość. Porównane zostaną różne przewodowe i bezprzewodowe technologie interfejsów współczesnych kamer, m.in.: GiGE, CameraLink, USB, FireWire, (decydujące o przepustowości, topologii, wymaganiach co do długości kabli, obciążeniu procesora, czy dopuszczalnej ilość urządzeń akwizycji, itp.). W ramach prowadzonych badań przetestowano kilka reprezentatywnych dla zagadnienia pomiarowego kamer cyfrowych o różnych technologiach interfejsów i wyposażonych w różne obiektywy. W artykule zaprezentowano wyniki kalibracji i testów radiometrycznych wybranych modeli kamer. Wielowariantowa kalibracja geometryczna pozwoliła na zbadanie postawionych problemów: − jaki jest poziom błędów obrazowania przy zastosowaniu różnych obiektywów, − czy można w procesie redukcji błędów obiektywu uwzględniać tylko dystorsję radialną i do ilu czynników wielomianu tej dystorsji wystarczy się ograniczyć, − jakie są błędy szczątkowe obrazu po usunięciu ich optymalnym wielomianem aproksymującym. Badanie radiometrii zdjęć przeprowadzono z użyciem testu IT8, SFR Plus i oprogramowania firmy Imatest. Skupiono się przede wszystkim na najistotniejszych dla obrazowania na potrzeby pomiaru skrajni cechach: ostrości i kontraście, zakresie tonalnym i odwzorowaniu barw. W wyniku badań określono zestaw cech istotnych dla optymalnego wyboru systemu wizyjnego.
EN
The characteristics of imagine systems used in railway clearance measurements can be divided into three groups: geometry of projection, radiometric quality and technical specifications. The geometry of image acquisition is determined in the camera calibration procedure. The interior orientation parameters of camera and distortion model parameters of a lens as well as an imaging sensor are estimated using special test-fields. The radiometric calibration and testing often involves the determination of the imaging system resolution, sharpness and contrast characteristics (MTF or SFR functions and gamma), dynamic range, noise and color projection accuracy. The process of image acquisition can be characterized by frequency and baud rate. The subsequent, widely used wire and wireless communication interfaces of currently used cameras are going to be compared: GiGE, CameraLink, USB, FireWire. The short deprecation of influence of applied interface on the baud rate, systems topology, wire lengths, processor load and the maximum number of connected imagine devices will be given. Within the conducted researches the few appropriate for the railway measurements cameras were tested. The examined cameras have various communication interfaces and were used with various lenses. The results of geometric calibration and radiometric testing will be given. The multi-variant camera calibration allowed to address the following problems: − what we can say about the quantitative characteristics of imagine errors depending on the lens used, − is the modeling of the radial distortion only sufficient and how many coefficients should be applied, − how big are the remaining residuals after applying the systematic image error corrections. The radiometric investigations was conducted using the IT8 and SFR Plus tests. The Imatest software was used. The most important features for the railway clearance measurements were examined, i.e. sharpness, contrast, dynamic range and color projection quality. As a result of conducted researches the set of important for the choice of imaging system features was determined.
PL
W metodzie podwójnej płaszczyzny (ang. double plane) zależność między współrzędnymi obrazowymi a współrzędnymi w przestrzeni trójwymiarowej jest obliczana na podstawie czterech przekształceń płaszczyzny na płaszczyznę (dwie kamery i dwie płaszczyzny kalibracyjne). Metoda jest intuicyjna i łatwa w implementacji, lecz ma poważną wadę w postaci złego uwarunkowania zadania dla pewnych obszarów przestrzeni. W artykule proponujemy odporną metodę kalibracji, która wykorzystuje dodatkowo trzecią płaszczyznę kalibracyjną. Jest to płaszczyzna wirtualna, która nie jest fizycznie elementem wzorca, ale jest zdefiniowana przez odpowiednio rozmieszczone punkty kalibracyjne na dwóch płaszczyznach podstawowych. Proponowany algorytm wykorzystuje liniową kombinację trzech par płaszczyzn: dla par płaszczyzn, które mogą generować błędy numeryczne przypisywana jest niska waga, minimalizująca ich wpływ na wynik końcowy. Eksperymenty wykazały dużą dokładność i wiarygodność proponowanej metody w stosunku do podstawowej wersji algorytmu: błąd średniokwadratowy i błąd maksymalny zostały zredukowane odpowiednio 4- i 20-krotnie.
EN
In double-plane method for stereovision system calibration the correspondence between screen coordinates and location in 3D space is calculated based on four plane-to-plane transformations: there are two planes of the calibration pattern and two cameras. The method is intuitive and easy to implement but the main disadvantage is ill-conditioning for some spatial locations. In this paper we proposed a robust method which exploits the third plane which physically does not belong to the calibration pattern but can be calculated from the set of reference points. Our algorithm uses combination of three calibration planes with weights which depend on screen coordinates of the point of interest: a pair of planes which could cause numerical errors receives small weight and has practically no inl uence on the i nal results. We analysed errors and their distribution in 3D space for basic and improved algorithm. Experiments demonstrate high accuracy and reliability of our method comparing to the basic version: mean square error and maximum error are reduced 4 times and 20 times respectively.
PL
W niniejszej pracy pojęcie trójwymiarowej rekonstrukcji sceny na podstawie obrazów termowizyjnych jest rozumiane, jako przypisanie każdemu punktowi obrazu termowizyjnego współrzędnych przestrzennych. Kalibracja układu kamery (lub kamer) jest ważnym elementem takiej rekonstrukcji. W artykule opisano algorytmy do kalibracji kamer pod kątem ich zastosowania do trójwymiarowej rekonstrukcji sceny termowizyjnej. Na tle istniejących rozwiązań w omawianej tematyce opisano podejście zaproponowane przez autora. Algorytmy napisano w języku C++ oraz poddano weryfikacji, której wyniki opisano w końcowej części pracy.
EN
In this paper reconstruction of 3D scene refers to assigning 3D coordinates to each pixel of a thermal image. Calibration of cameras is a crucial element of such a system. There is presented classification and review of camera calibration techniques in the paper. The first perspective model of a single camera is given (Fig. 1) and the basics regarding 3D reconstruction by means of a stereoscopic set of cameras are provided (Fig. 2). Classification of 3D scene reconstruction techniques according to calibration algorithms is summed up in Tab. 1. The calibration algorithm of a single camera by means of a special board is described in Section 5. Next, the more detailed description of the algorithms providing extrinsic parameters i.e. the rotation matrix and translation vector between two cameras or two different positions of the same camera is given. Finally, a robust calibration technique proposed by the author is outlined. The stereovision set integrated with a thermal camera used as a test bed for the implemented calibration algorithms is shown in Fig. 4. The obtained results of calibration and reconstruction are presented in Tabs. 3 and 4. The reconstructed object is shown in Fig. 5. According to Tab. 4, the best reconstruction results are obtained by means of a stereovision set consisting of two visual cameras calibrated by means of a classical calibration board (Fig. 3). In the case of a single moving thermographic camera calibrated by means of the method proposed by the author, the obtained recon-struction results are worse; the reconstruction error is about 5 mm, while the distances between the reconstructed points are 300mm (Fig. 5).
16
Content available remote Research on camera calibration using new optimization strategy
EN
An important task for stereo vision is camera calibration, whose goal is to obtain the intrinsic and extrinsic parameters of each camera. This paper proposes a new accurate calibration method with multilevel process of camera parameters. In or- der to improve the calibration accuracy, a sub-pixel corner detection method is presented. We start with several views of a planar calibration to obtain some intrinsic camera parameters and to build an accurate model with lens distortion on a planar calibration target. Flexibly making use of geometry imaging theory, our algorithm obtains all the parameters through logical organization of solving order, accordingly avoids obtaining possible local optimized problem when solving the non-linear equation, gets over the relativity influence of every unknown parameters of traditional calibration way, and makes the error distributed among the constraint relation of parameters. Experiments with real images are carried out to verify the image correction effect and numerical robustness of our results. Compared with classical calibration techniques, that use expensive equipment and complicated mathematical computation, the proposed technique, which was verified by experiment, achieves high accuracy and reliable parameters.
17
EN
Results of research on calibration of high-resolution digital camera Nikon D3X have been presented. CMOS matrix stability in recording process of digital images, calculation of principle distance as well as principal point, radial distortion and tangential distortion were determined. The interior orientation parameters determined during calibration in test project were examined. All test images were obtained using three replaceable Nikkor lens of 24, 35 and 50 mm focal length. The calibration process was executed in Camera Calibration and Field Calibration modules of PhotoModeler software using convergent terrestrial images. It was also executed for single photo in DLT module of AeroSys software. For the determination of interior orientation parameters of digital camera for each lens the 2D and 3D test fields were used. Stability and repeatability of recorded digital images on CMOS matrix were examined on 25 control points which were evenly distributed on a white calibration table. Accuracy of pixel position on the image for 24 mm, 35 mm and 50 mm focal length was 0.06, 0.08 and 0.04 of image pixel, respectively. It was found that interior orientation parameters calculated using the PhotoModeler software for both calibration methods were correctly determined while when using the Aerosys software they were determined with lower accuracy. The very high accuracy of elaboration of a test photogrammetric project for each camera lens was obtained using interior orientation parameters calculated on the basis of convergent images and 3D field.
PL
W artykule przedstawiono wyniki badań nad kalibracją wysokorozdzielczej lustrzanki cyfrowej Nikon D3X. Badania obejmowały określenie stabilności rejestrowanych na matrycy obrazów cyfrowych, wyznaczenie odległości obrazowej, punktu głównego zdjęcia, dystorsji radialnej, dystorsji tangencjalnej oraz przetestowanie uzyskanych parametrów orientacji wewnętrznej kamery na projekcie testowym. Wszystkie etapy prac przeprowadzono wykorzystując trzy wymienne obiektywy Nikkor o ogniskowych 24, 35 i 50 mm. Proces kalibracji kamery wykonano z zastosowaniem zbieżnych zobrazowań naziemnych w oprogramowaniu PhotoModeler oraz pojedynczej sceny w module programu Aerosys. Do określenia elementów orientacji wewnętrznej aparatu z poszczególnymi obiektywami wykorzystano pole testowe płaskie oraz przestrzenne. Stabilność i powtarzalności rejestracji obrazów na matrycy sprawdzono na 25 rozmieszczonych równomiernie punktach. Uzyskane wyniki to przeciętnie: dla ogniskowej 24 mm - 0.06 piksela, 35 mm - 0.08 piksela, 50 mm - 0.04 piksela. Kalibrację wykonano wykorzystując moduły Camera Calibration i Field Calibration oprogramowania PhotoModeler oraz moduł DLT programu Aerosys. Najdokładniej dla wszystkich obiektywów opracowano przykładowy projekt fotogrametryczny, stosując elementy orientacji wewnętrznej testowanej lustrzanki, wyznaczone na podstawie zdjęć zbieżnych testu trójwymiarowego.
PL
W artykule opisano zagadnienia związane z kalibracją kamer oraz konfiguracją sceny w systemach wizyjnych z kamerą nieruchomą względem sceny. Przedstawiono model matematyczny istotnych zniekształceń powstających w trakcie obrazowania obiektów trójwymiarowych. Znane obecnie algorytmy kalibracji kamer zostały zcharakteryzowane. Zademonstrowano wyniki korekcji obrazu po skonfigurowaniu sceny i kalibracji kamery oraz wskazano problemy wynikające z zastosowania tych metod.
EN
Issues related to camera calibration and scene configuration in stationary camera surveillance system have been discussed. Mathematical model of relevant imaging distortion of 3D objects been presented. A review of camera calibration algorithms has been presented. Results of image correction followed by scene configuration and camera calibration have been shown. Drawbacks of methods have been indicated in the article.
EN
Estimation of internal parameters of a camera is a very important task for photo- and videogrammetric applications. This operation is time-consuming for multiple cameras. The method based on the mobile backlight illuminated calibration board is proposed. Wireless link for the calibration result transmission with the pattern features detection results is applied in the system. The OpenCV library for calibration process and libdc library for real-time image acquisition are applied.
PL
Estymacja parametrów wewnętrznych kamer jest ważnym zadaniem fotogrametrii i wideogrametrii. Wykonanie kalibracji kamer dla wielu kamer jest zadaniem długotrwałym, dlatego tez w artykule zaproponowano system do wspomagania tego procesu. W miejsce pasywnego wzorca kalibracyjnego lub monitora LCD wykorzystano podświetlany panel wraz z transparentnym wzorcem, a obraz z kamery jest rejestrowany z wykorzystaniem systemu Linux dla kamer IIDC (biblioteka libdc) i przetwarzany przez oprogramowanie do kalibracji w czasie rzeczywistym w oparciu o bibliotekę OpenCV. Obraz wzorca informujący zarazem o jakości kalibracji jest przesyłany za pomocą łączą bezprzewodowego Bluetooth do mobilnego systemu wizualizacji wykorzystującego procesor sygnałowy. Zadaniem procesora sygnałowego jest synteza i generacja obrazu analogowego na podstawie danych z procesu kalibracji dla monitora podglądowego LCD zainstalowanego na kamizelce operatora. Do syntezy wykorzystano wielowyjściowy układ transmisji szeregowej synchronicznej pracujący w trybie Network Mode TDM. Wykorzystując większą ilość kanałów modułu ESSI możliwa jest programowo-sprzętowa generacja obrazu w kilku odcieniach szarości lub kolorach. Zaproponowane rozwiązanie nie wymaga konieczności dostępu do monitora komputera, do którego podłączona jest kamera. W artykule porównano także wpływ warunków oświetlenia pomieszczenia na oświetlenie wzorca kalibracji w wariancie pasywnym i z wykorzystaniem podświetlenia.
20
PL
Zastosowanie warunku Scheimpfluga w kamerach powoduje, że dystorsja obiektywu nie jest symetryczna wokół punktu głównego zdjęcia, a przyjęcie tego punktu jako początku promieni radialnych dla dystorsji powoduje znaczące obniżenie dokładności fotogrametrycznego pomiaru. Dodatkowo, zmienia się charakter dystorsji, jej zniekształcenie nie jest kołowe, a eliptyczne. Dotychczasowe rozwiązania problemu polegają na dodaniu do parametrów kalibracji kamery kąta nachylenia płaszczyzny rejestracji w stosunku do płaszczyzn głównych obiektywu kamery i wyznaczenie ich w procesie wyrównania sieci z samokalibracją. W przypadkach stosowania metod jednoobrazowych, wykorzystywanych na przykład w pomiarach z zastosowaniem profili świetlnych, znajomość parametrów kalibracji można ograniczyć tylko do błędów obrazu – przede wszystkim do wpływu dystorsji obiektywu. W pracy podano proste obliczeniowo metody wyznaczenia błędów obrazu dla zdjęć wykonanych kamerą z warunkiem Scheimpfluga. Pierwszy polega na wyznaczeniu wyinterpolowanych poprawek do pomierzonych współrzędnych w oparciu o „mapę” odchyłek otrzymaną na podstawie przekształcenia rzutowego płaskiego wielopunktowego pola testowego na zdjęcie. Druga metoda wymaga obliczenia oprócz parametrów dystorsji również punktu najlepszej symetrii dystorsji wykorzystując odchyłki po transformacji rzutowej. Badania wykonano w oparciu o dane rzeczywiste, jak i symulacyjne. Rezultaty usunięcia wpływu dystorsji pierwszą z metod okazały się znacznie lepsze od drugiej metody, pozwoliły na zmniejszenie wpływu błędu dystorsji do poziomu błędów przypadkowych pomiaru.
EN
Automatic processes of manufacturing supervision with digital cameras often need to employ the Scheimpflug condition. This is quite common when registering profiles with a laser light. The Scheimplug condition is applied in this case because usually the registration plane cannot be set in parallel to the plane of a laser profile. Moreover, the low-light conditions forcing the use of large diaphragm size and low image acquisition distance imply that the depth of field is insufficient. Setting up three planes: lens main, image and profile in a way that they intersect within one edge, causes that the axis of the lens impales image plane at a point distant from the principal point, which in the analytical evaluation of the photogrammetric networks is adopted as the best-distortionsymmetry point. The Scheimpflug condition causes that the lens distortion (a feature significantly influencing the central projection) is not symmetrical around the principal point and, assuming this point as the origin of radial rays, leads to significant reduction of accuracy of measurement. A solution to this problem is to include the incidence angle between the detector array and lens main planes in the calibration parameters and their evaluation in the self-calibration network adjustment. This best solution from the substantive point of view thus needs elaboration of a specific software for self-calibration bundle adjustment, which is costly and time consuming. In this paper the different – computationally easier methods for the evaluation of image errors for the images taken considering the use of a camera with the Scheimpflug condition. The first method involves determination of interpolated corrections to measured coordinates based on a “deviation map” obtained from the projective transform of a planar, multi-point test-field on the image. The second method employs the evaluation of the best-distortion-symmetry point using the deviations evaluated after the projective transform, approximated by a radial and tangential distortion polynomial evaluated regarding this point. The research was conducted using real as well as simulated data.
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.