KR101360999B1 - Real time data providing method and system based on augmented reality and portable terminal using the same - Google Patents

Real time data providing method and system based on augmented reality and portable terminal using the same Download PDF

Info

Publication number
KR101360999B1
KR101360999B1 KR1020130094592A KR20130094592A KR101360999B1 KR 101360999 B1 KR101360999 B1 KR 101360999B1 KR 1020130094592 A KR1020130094592 A KR 1020130094592A KR 20130094592 A KR20130094592 A KR 20130094592A KR 101360999 B1 KR101360999 B1 KR 101360999B1
Authority
KR
South Korea
Prior art keywords
image
data
target object
marker
original image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020130094592A
Other languages
Korean (ko)
Inventor
김봉민
김찬송
김동채
Original Assignee
코리아디지탈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코리아디지탈 주식회사 filed Critical 코리아디지탈 주식회사
Priority to KR1020130094592A priority Critical patent/KR101360999B1/en
Application granted granted Critical
Publication of KR101360999B1 publication Critical patent/KR101360999B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Environmental & Geological Engineering (AREA)
  • Emergency Management (AREA)
  • Ecology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Environmental Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 증강현실 기반의 실시간 데이터 제공 방법 및 이를 이용한 휴대단말기에 관한 것으로, 보다 상세하게는 과학실험 등의 실험상황을 촬영한 영상에, 실험용 센서로부터 측정된 데이터를 증강현실로 오버래핑하여 실시간으로 제공할 수 있도록 한 것이다.
특히, 본 발명은 사용자의 스마트폰, 태블릿 등의 휴대단말기를 이용하여 실험상황의 촬영, 측정데이터가 오버래핑 된 증강현실 영상의 생성 및 측정데이터의 제공을 수행함으로써, 실험자의 이해도와 활용성을 크게 향상시킬 수 있다.
더불어, 본 발명은 원격의료진단, 방송, 건축설계, 제조공정관리 등의 분야에서도, 다양한 상황에 따른 데이터를 실시간으로 취합 및 제공할 수 있도록 함으로써, 해당 분야의 사용자가 각 상황에 대하여 가장 효율적인 방법으로 신속하게 대처할 수 있게 해줄 수 있는 효과가 있다.
따라서, 증강현실 분야, 특히 과학실험 분야는 물론, 원격의료진단, 방송, 건축설계, 제조공정관리 등의 다양한 분야에서도 에서 신뢰성 및 경쟁력을 향상시킬 수 있다.
The present invention relates to a method for providing real-time data based on augmented reality and a mobile terminal using the same, and more particularly, in real time by overlapping the data measured from an experimental sensor with an augmented reality in an image photographing an experimental situation such as a scientific experiment. It is to be provided.
In particular, the present invention by using the user's smart phone, tablet, such as a mobile phone by performing the photographing of the experimental situation, the generation of the augmented reality image overlapped with the measurement data and providing the measurement data, greatly improve the understanding and utility of the experimenter Can be improved.
In addition, the present invention enables the users of the relevant fields to collect and provide data according to various situations in real time even in the fields of remote medical diagnosis, broadcasting, architectural design, manufacturing process management, etc. There is an effect that can enable you to respond quickly.
Therefore, the reliability and competitiveness can be improved not only in the field of augmented reality, especially in the field of scientific experiments, but also in various fields such as remote medical diagnosis, broadcasting, architectural design, and manufacturing process management.

Description

증강현실 기반의 실시간 데이터 제공 방법 및 이를 이용한 휴대단말기{Real time data providing method and system based on augmented reality and portable terminal using the same}Real time data providing method and system based on augmented reality based on augmented reality and portable terminal using the same}

본 발명은 증강현실 기반의 실시간 데이터 제공 방법 및 이를 이용한 휴대단말기에 관한 것으로서, 보다 상세하게는 과학실험 등의 실험상황을 촬영한 영상에, 실험용 센서로부터 측정된 데이터를 증강현실로 오버래핑하여 실시간으로 제공할 수 있도록 한 것이다.The present invention relates to a method for providing real-time data based on augmented reality and a portable terminal using the same, and more particularly, in real time by overlapping the data measured from the sensor for augmented reality in an image photographing an experimental situation such as a scientific experiment. It is to be provided.

특히, 본 발명은 사용자의 스마트폰 등의 휴대단말기를 이용하여 실험상황의 촬영, 측정데이터가 오버래핑 된 증강현실 영상의 생성 및 측정데이터의 제공을 수행함으로써, 실험자의 이해도와 활용성을 크게 향상시킬 수 있는 증강현실 기반의 실시간 데이터 제공 방법 및 이를 이용한 휴대단말기에 관한 것이다.
In particular, the present invention by using a mobile terminal of the user's smartphone, such as photographing the experimental situation, generation of augmented reality image overlapped with the measurement data and providing the measurement data, greatly improve the understanding and utility of the experimenter It relates to an augmented reality-based real-time data providing method and a portable terminal using the same.

일반적으로, 증강현실은 사용자가 눈으로 보는 현실세계에 가상의 물체(이미지)를 겹치도록 보여주는 기술로서, 원격의료진단, 방송, 건축설계, 제조공정관리 등 다양한 분야에서 이용되고 있다.In general, augmented reality is a technology that shows a virtual object (image) overlapping the real world that the user sees, and is used in various fields such as remote medical diagnosis, broadcasting, architectural design, and manufacturing process management.

이러한 증강현실분야는 주로 GPS/IGPS(Indoor GPS) 등의 위치감지 센서를 이용한 위치기반 증강현실과, QR코드나 바코드 등을 이용하는 영상인식기반 증강현실, 정해진 정보를 그대로 디스플레이하는 데이터기반 증강현실 등으로 구분할 수 있다.The augmented reality field mainly includes location-based augmented reality using location sensors such as GPS / IGPS (Indoor GPS), image recognition-based augmented reality using QR codes or barcodes, and data-based augmented reality to display predetermined information as it is. It can be divided into

다시 말해, 기존의 증강현실은 설정된 위치정보나 인식정보가 인식되거나 사용자에 의해 요청되면, 이에 대응하여 미리 정해진 정적정보를 오버래핑하는 방식으로 제공되고 있다. 여기서, 정적정보는 사용자에 의해 한번 결정되면 능동적으로 변경되지 못하는 정보(사용자가 변경해야만 변경되는 정보)를 말하며, 센서에 의해 입력되는 정보와 같이 실시간으로 변경되는 동적정보에 반대되는 의미로 사용될 수 있다.In other words, the existing augmented reality is provided in a manner that overlaps the predetermined static information in response to the set position information or recognition information is recognized or requested by the user. Here, the static information refers to information that cannot be actively changed once determined by the user (information changed only by the user), and can be used as opposed to dynamic information that is changed in real time, such as information input by a sensor. have.

따라서, 지금까지의 증강현실 분야는 단순히 사용자에 의해 만들어진 정적정보를 제공하는 정도에 그치고 있기 때문에, 과학분야의 실험실 등에서 센서에 의해 측정되어 실시간으로 변경되는 측정데이터 등을 보여주는 분야에는 적합하지 못하였다.Therefore, the field of augmented reality up to now is merely providing static information made by a user, and thus, the augmented reality field is not suitable for a field showing measurement data which is measured by a sensor and changed in real time in a laboratory of a scientific field. .

하기의 선행기술(대한민국 등록특허공보 제10-1195446호)에서도, 미리 저장된 도면과 이에 매칭된 정비가이드 정보(정적정보)를 증강현실 기반으로 제공하는 기술에 대해 나타나 있으나, 동적정보를 증강현실 기반으로 제공하는 기술에 대해서는 나타나 있지 않다.In the following prior art (Korea Patent Publication No. 10-1195446), a technique for providing a pre-stored drawing and maintenance guide information (static information) matched thereto based on augmented reality, but based on augmented reality based on dynamic information It does not appear about the technology provided by.

결과적으로, 선행기술과 같이 정적정보를 제공하는 증강현실 분야는 정해진 상황에 대해서는 쉽게 대응할 수 있으나, 다양한 상황변화(특히, 예상하지 못한 문제가 발생하는 상황 등)에 대해서는 능동적으로 대응하지 못하는 결과를 초래할 수 있다.As a result, the augmented reality field that provides static information, like the prior art, can easily respond to a predetermined situation, but fails to actively respond to various situation changes (especially situations in which unexpected problems occur). Can cause.

한편, 종래의 과학실험은 센서에 의해 측정된 데이터를 텍스트, 그래프, 테이블과 같은 형태로 저장하였고, 이를 필요에 따라 이미지 등의 보충 설명문과 함께 실험과정 및 데이터, 그리고 데이터의 분석결과를 문서화 하였다.On the other hand, the conventional scientific experiments stored the data measured by the sensor in the form of text, graphs, tables, etc., and documented the experimental process and data, and the analysis results of the data with supplementary explanations such as images as necessary. .

이러한 과정은, 실제 실험을 위한 환경 구축과 실험과정의 기록, 분석 및 결과 정리 등 일련의 문서화 과정이 번거롭고, 문서를 작성하기 위해 별도의 프로그램을 익히고 사용하였다. 복잡한 실험의 경우에는 과정 정리 및 비전문가의 이해도를 높이기 위해서는 많은 표현기법 도표, 동영상, 이미지 등의 번거로운 과정을 필요로 하면서도 표현의 한계가 있었다.
This process is cumbersome for documenting process such as setting up environment for actual experiments and recording, analyzing, and arranging results of experiments, and learning and using a separate program to prepare documents. In the case of complex experiments, in order to comprehend the process and improve the understanding of the non-experts, there are limitations in expression, although it requires a lot of cumbersome processes such as diagrams, videos, and images.

대한민국 등록특허공보 제10-1195446호 '증강현실 기반의 정비 가이드 제공 단말기 및 이를 이용한 정비 가이드 제공 방법'Republic of Korea Patent Publication No. 10-1195446 'Augmented reality based maintenance guide providing terminal and maintenance guide providing method using the same'

상기와 같은 문제점을 해결하기 위해서, 본 발명은 실시간으로 변화되는 다양한 상황에 대하여 능동적으로 데이터를 제공할 수 있는 증강현실 기반의 실시간 데이터 제공 방법 및 이를 이용한 휴대단말기를 제공하는데 목적이 있다.In order to solve the above problems, an object of the present invention is to provide a method for providing real-time data based on augmented reality that can actively provide data for various situations that are changed in real time, and a portable terminal using the same.

예를 들어, 과학실험 등에서 일련의 준비과정, 센서의 위치, 실험순서, 각 센서가 검출하는 값의 변화 표현 등의 과정을 쉽게 정리하고 표현하여 실험에 보다 집중하고, 교육적 효과를 높이며, 비전문가에게 실험과정 및 분석결과를 쉽게 이해시키고 공유할 수 있는 증강현실 기반의 실시간 데이터 제공 방법 및 이를 이용한 휴대단말기를 제공하는데 목적이 있다.For example, in scientific experiments, a series of preparation procedures, sensor positions, experiment order, and expressions of changes in values detected by each sensor can be easily arranged and expressed to focus on experiments, enhance educational effects, and The purpose is to provide augmented reality-based real-time data providing method and a portable terminal using the same that can easily understand and share the experimental process and analysis results.

이를 위하여, 본 발명은 과학실험 등의 실험상황을 촬영한 영상에, 실험용 센서로부터 측정된 데이터를 증강현실로 오버래핑하여 실시간으로 제공할 수 있도록 한 증강현실 기반의 실시간 데이터 제공 방법 및 이를 이용한 휴대단말기를 제공하는데 목적이 있다.To this end, the present invention is a method for providing real-time data based on augmented reality that can be provided in real time by overlapping the data measured from the experimental sensor to the image photographing the experimental situation, such as scientific experiments, and a mobile terminal using the same The purpose is to provide.

또한, 본 발명은 사용자의 스마트폰, 태블릿 등의 휴대단말기를 이용하여 실험상황의 촬영, 측정데이터가 오버래핑 된 증강현실 영상의 생성 및 측정데이터의 제공을 수행함으로써, 실험자의 이해도와 활용성을 크게 향상시킬 수 있는 증강현실 기반의 실시간 데이터 제공 방법 및 이를 이용한 휴대단말기를 제공 하는데 목적이 있다.
In addition, the present invention by using a mobile terminal of the user's smart phone, tablet, etc. by performing the photographing of the experimental situation, the generation of the augmented reality image overlapped with the measurement data and providing the measurement data, greatly improved the understanding and utility of the experimenter An object of the present invention is to provide a method for providing augmented reality-based real-time data and a portable terminal using the same.

상기와 같은 목적을 달성하기 위해서, 본 발명에 따른 증강현실 기반의 실시간 데이터 제공 방법은, 증강현실 기반의 데이터를 디스플레이 하기 위한 대상이 되는 적어도 하나의 대상객체를 설정하는 대상객체 설정단계; 촬영된 원영상을 영상인식처리하여 설정된 상기 대상객체 중 상기 원영상에 포함된 대상객체를 확인하는 대상객체 확인단계; 상기 원영상 내에서 상기 대상객체의 측정데이터를 디스플레이하기 위한 마커(Marker)의 위치를 추적하는 마커위치 확인단계; 상기 원영상에 포함된 대상객체별 측정데이터를 상기 마커위치에 대응하도록 상기 원영상에 오버래핑하여 가공영상을 생성하는 가공영상 생성단계; 및 상기 원영상, 대상객체별 측정데이터 및 가공영상 중 적어도 하나를 실험데이터로 제공하는 실험정보 제공단계를 포함한다.In order to achieve the above object, the augmented reality-based real-time data providing method according to the present invention, the target object setting step of setting at least one target object to be augmented reality-based data display; A target object checking step of checking a target object included in the original image among the target objects set by image recognition processing of the captured original image; A marker position checking step of tracking a position of a marker for displaying measurement data of the target object in the original image; A processed image generation step of generating a processed image by overlapping the measurement data for each object included in the original image with the original image so as to correspond to the marker position; And providing experimental information for providing at least one of the original image, the measurement data for each object, and the processed image as experimental data.

또한, 상기 마커위치 확인단계는, 상기 원영상에서 밝기성분과 색상성분을 분류하는 원영상 보정과정; 상기 마커의 색상으로 설정된 색상값을 갖는 픽셀을 추출하는 설정픽셀 추출과정; 추출된 상기 설정픽셀들 중 인접된 픽셀들을 하나의 영역으로 분류하는 픽셀영역 확인과정; 분류된 픽셀영역들 중 설정범위 이내에 포함된 픽셀영역을 마커영역으로 선택하는 마커영역 확인과정; 및 선택된 마커영역의 위치를 추적하는 마커위치 추적과정을 포함할 수 있다.In addition, the marker position confirming step, the original image correction process for classifying the brightness component and the color component in the original image; A setting pixel extraction process of extracting a pixel having a color value set as the color of the marker; A pixel area checking process of classifying adjacent pixels among the extracted set pixels into one area; A marker region checking step of selecting a pixel region included in a set range among the classified pixel regions as a marker region; And a marker position tracking process for tracking the position of the selected marker region.

또한, 본 발명에 따른 증강현실 기반의 실시간 데이터 제공 방법을 이용한 휴대단말기는, 실험상황을 원영상으로 촬영하는 영상촬영부; 상기 영상촬영부에서 촬영된 원영상을 영상인식처리하여 설정된 대상객체를 확인하는 영상인식부; 상기 영상인식부에서 영상인식처리된 원영상에서 상기 대상객체에 대응하는 마커(Marker)를 추적하는 마커확인부; 상기 마커에 상기 대상객체의 측정데이터를 오버래핑하여 가공영상을 생성하는 가상현실 매핑부; 및 상기 가상현실 매핑부에서 생성된 가공영상을 사용자의 설정에 대응하여 출력하는 디스플레이를 포함한다.In addition, the portable terminal using the augmented reality-based real-time data providing method according to the present invention, the image taking unit for photographing the experimental situation in the original image; An image recognition unit to identify a target object set by image recognition processing of the original image photographed by the image photographing unit; A marker identification unit for tracking a marker corresponding to the target object in the original image processed by the image recognition unit; A virtual reality mapping unit for generating a processed image by overlapping the measurement data of the target object on the marker; And a display for outputting the processed image generated by the virtual reality mapping unit corresponding to a user's setting.

또한, 사용자의 설정에 대응하여 상기 실험의 대상이 되는 상기 대상객체 및 상기 마커 중 적어도 하나에 대한 이미지, 색상 및 크기 중 적어도 하나를 포함하는 영상정보를 상기 영상인식부로 전송하는 객체설정부; 및 상기 실험에 대응하여 설치된 센서로부터 상기 대상객체의 변화를 측정한 측정데이터를 상기 가상현실 매핑부로 전송하는 측정데이터 수신부를 더 포함할 수 있다.The apparatus may further include an object setting unit configured to transmit image information including at least one of an image, a color, and a size of at least one of the target object and the marker, which is the target of the experiment, to the image recognition unit in response to a user setting; And a measurement data receiver configured to transmit the measurement data measuring the change of the target object from the sensor installed in response to the experiment to the virtual reality mapping unit.

또한, 상기 가상현실 매핑부로부터 상기 원영상, 대상객체별 측정데이터 및 가공영상 중 적어도 하나를 전송받고, 상기 대상객체별 측정데이터 및 가공영상 중 적어도 하나를 사용자의 설정에 대응하여 변환하는 데이터처리부; 상기 데이터처리부에서 변환된 상기 대상객체별 측정데이터, 가공영상 및 상기 원영상을 분류하여 정지영상 또는 동영상으로 저장하는 데이터저장부; 및 상기 데이터처리부 또는 상기 데이터저장부로부터 변환 또는 저장된 상기 대상객체별 측정데이터, 가공영상 및 상기 원영상을 외부장치로 전송하는 송수신부를 더 포함할 수 있다.
In addition, the data processing unit for receiving at least one of the original image, the measurement data for each object and the processed image from the virtual reality mapping unit, and converts at least one of the measurement data and the processed image for each target object corresponding to the user's setting ; A data storage unit for classifying the measured data for each target object, the processed image, and the original image converted by the data processing unit and storing them as a still image or a moving image; And a transmitting / receiving unit which transmits the measurement data for each target object, the processed image, and the original image converted or stored from the data processing unit or the data storage unit to an external device.

상기와 같은 해결수단에 의해, 본 발명은 과학실험 분야와 같이 실시간으로 변화되는 일련의 준비과정, 센서의 위치, 실험순서, 각 센서가 검출하는 값의 변화 표현 등의 과정을 쉽게 정리하고 표현하여 능동적으로 데이터를 제공할 수 있는 장점이 있다.By the above solving means, the present invention can easily arrange and express a series of preparation process, the position of the sensor, the experiment order, the expression of the change of the value detected by each sensor, such as in the field of science experiment There is an advantage that can provide data actively.

결과적으로, 사용자에게 실험에 보다 집중하고, 교육적 효과를 높이며, 비전문가에게 실험과정 및 분석결과를 쉽게 이해시키고 공유할 수 있는 효과가 있다.As a result, the user can concentrate on the experiment, increase the educational effect, and can easily understand and share the experimental process and analysis results with the non-expert.

특히, 본 발명은 사용자가 자신이 휴대한 스마트폰 등의 휴대단말기를 이용하여, 실험현장을 실시간으로 촬영하면서 다양한 정보를 증강현실 기반의 영상으로 확인할 수 있도록 함으로써, 실험결과를 사용자에게 제공함은 물론 생성된 증강현실 기반의 정보를 교육 등에 활용하거나 다양한 통계자료로 활용할 수 있는 장점이 있다.In particular, the present invention allows the user to check a variety of information as augmented reality-based image while photographing the experiment site in real time using a mobile terminal such as a smart phone, such as to provide the experimental results to the user as well as The generated augmented reality-based information has the advantage that can be used for education or various statistical data.

더불어, 본 발명은 원격의료진단, 방송, 건축설계, 제조공정관리 등의 분야에서도, 다양한 상황에 따른 데이터를 실시간으로 취합 및 제공할 수 있도록 함으로써, 해당 분야의 사용자가 각 상황에 대하여 가장 효율적인 방법으로 신속하게 대처할 수 있게 해줄 수 있는 효과가 있다.In addition, the present invention enables the users of the relevant fields to collect and provide data according to various situations in real time even in the fields of remote medical diagnosis, broadcasting, architectural design, manufacturing process management, etc. There is an effect that can enable you to respond quickly.

따라서, 증강현실 분야, 특히 과학실험 분야는 물론, 원격의료진단, 방송, 건축설계, 제조공정관리 등의 다양한 분야에서도 에서 신뢰성 및 경쟁력을 향상시킬 수 있다.
Therefore, the reliability and competitiveness can be improved not only in the field of augmented reality, especially in the field of scientific experiments, but also in various fields such as remote medical diagnosis, broadcasting, architectural design, and manufacturing process management.

도 1은 본 발명에 의한 증강현실 기반의 실시간 데이터 제공 방법의 일 실시예를 설명하는 흐름도이다.
도 2는 도 1의 단계 'S300'에 대한 구체적인 일 실시예를 설명하는 흐름도이다.
도 3은 본 발명에 의한 증강현실 기반의 실시간 데이터 제공 방법을 이용한 휴대단말기를 이용한 실험데이터 제공 시스템의 일 실시예를 설명하는 구성도이다.
도 4는 도 3에 나타난 휴대단말기의 일 실시예를 설명하는 블록도이다.
도 5는 본 발명에 의해 생성된 가공영상의 일 실시예를 설명하는 도면이다.
1 is a flowchart illustrating an embodiment of a method for providing augmented reality-based real-time data according to the present invention.
FIG. 2 is a flowchart illustrating a specific embodiment of step S300 of FIG. 1.
3 is a block diagram illustrating an embodiment of an experimental data providing system using a mobile terminal using the augmented reality-based real-time data providing method according to the present invention.
4 is a block diagram illustrating an embodiment of the mobile terminal shown in FIG. 3.
5 is a view for explaining an embodiment of a processed image generated by the present invention.

본 발명에 따른 증강현실 기반의 실시간 데이터 제공 방법 및 이를 이용한 휴대단말기에 대한 예는 다양하게 적용할 수 있으며, 이하에서는 첨부된 도면을 참조하여 가장 바람직한 실시예에 대해 설명하기로 한다.Examples of a method for providing augmented reality-based real-time data and a mobile terminal using the same according to the present invention can be variously applied. Hereinafter, the most preferred embodiment will be described with reference to the accompanying drawings.

먼저, 본 발명에 의한 증강현실 기반의 실험데이터 제공 시스템의 일 실시예를 살펴본 후, 이에 기초하여 증강현실 기반의 실시간 데이터 제공 방법과 이용한 휴대단말기에 대하여 살펴보기로 한다.First, an embodiment of an augmented reality-based experimental data providing system according to the present invention will be described. Based on this, a method for providing augmented reality-based real-time data and a portable terminal will be described.

도 3은 본 발명에 의한 증강현실 기반의 실시간 데이터 제공 방법을 이용한 휴대단말기를 이용한 실험데이터 제공 시스템의 일 실시예를 설명하는 구성도이다.3 is a block diagram illustrating an embodiment of an experimental data providing system using a mobile terminal using the augmented reality-based real-time data providing method according to the present invention.

도 3을 참조하면, 증강현실 기반의 실험데이터 제공 시스템(A)은 센서(100), 휴대단말기(200), 실험데이터 제공서버(300) 및 클라이언트(400)를 포함할 수 있다.Referring to FIG. 3, the augmented reality-based experimental data providing system A may include a sensor 100, a mobile terminal 200, an experimental data providing server 300, and a client 400.

센서(100)는 다양한 실험현장(T)에서 요구되는 데이터를 측정하기 위한 것으로, 해당 과학실험에 따라 다양하게 적용될 수 있다. 예를 들어, 센서(100)는 온도를 측정하는 경우에는 온도센서를 포함할 수 있다.The sensor 100 is for measuring data required at various experimental sites (T), and may be variously applied according to the scientific experiment. For example, the sensor 100 may include a temperature sensor when measuring the temperature.

휴대단말기(200)는 실험현장(T)의 영상을 촬영(이하, 촬영된 실험현장 영상을 원영상이라 함)하고, 센서(100)로부터 전송되는 측정데이터를 수신하여 증강현실 기반의 영상(이하, 가공영상이라 함)을 생성 및 디스플레이하기 위한 것이며, 휴대단말기(200)의 구성 및 데이터처리 방법에 대해서는 하기에서 보다 상세히 설명하기로 한다. 여기서, 휴대단말기(200)는 스마트폰, 태블릿, PDA 등을 포함할 수 있다.The mobile terminal 200 captures an image of an experimental site T (hereinafter, referred to as a photographed experimental field image), and receives measurement data transmitted from the sensor 100, and then augmented reality-based image (hereinafter, referred to as an image). , A processed image), and a configuration and a data processing method of the mobile terminal 200 will be described in detail below. Here, the mobile terminal 200 may include a smartphone, tablet, PDA, and the like.

실험데이터 제공서버(300)는 휴대단말기(200)로부터 원영상, 측정데이터 및 가공영상을 수신하여 저장하고, 휴대단말기(200) 및 클라이언트(400)의 요청에 대응하여 저장된 정보를 제공할 수 있다.The experimental data providing server 300 may receive and store the original image, the measurement data, and the processed image from the mobile terminal 200, and may provide the stored information in response to a request of the mobile terminal 200 and the client 400. .

또한, 실험데이터 제공서버(300)는 센서(100)로부터 측정데이터를 수신하여 저장하고, 휴대단말기(200)의 요청에 의해 저장된 측정데이터를 휴대단말기(200)로 전송할 수 있다.In addition, the experimental data providing server 300 may receive and store measurement data from the sensor 100, and transmit the stored measurement data to the mobile terminal 200 at the request of the mobile terminal 200.

다시 말해, 휴대단말기(200)는 센서(100)로부터 직접 측정데이터를 수신하거나, 실험데이터 제공서버(300)로부터 제공받을 수 있다. 또한 휴대단말기(200)에 내장된 센서로부터 직접 데이터를 가져올 수 있다.In other words, the mobile terminal 200 may receive measurement data directly from the sensor 100 or may be provided from the experimental data providing server 300. In addition, data can be directly obtained from a sensor embedded in the mobile terminal 200.

클라이언트(400)는 실험데이터 제공서버(300)에 저장된 원영상, 측정데이터 및 가공영상를 수신하여 다양하게 편집 및 활용할 수 있다.The client 400 may receive the original image, the measurement data, and the processed image stored in the experiment data providing server 300 to variously edit and utilize the image.

또한, 당업자의 요구에 따라 클라이언트(400)에서도, 본 발명에 의한 증강현실 기반의 실시간 데이터 제공 방법을 처리할 수 있으며, 이러한 경우 실험현장(T)의 영상을 촬영하기 위한 별도의 카메라가 필요함은 물론이다.In addition, the client 400 can process the augmented reality-based real-time data providing method according to the present invention according to the needs of those skilled in the art, in this case, a separate camera is required to take the image of the experimental site (T) Of course.

이하에서는, 도 3에 나타난 실험데이터 제공 시스템에 적용되는 본 발명에 의한 증강현실 기반의 실시간 데이터 제공 방법에 대해 구체적으로 살펴보기로 한다.Hereinafter, the augmented reality-based real-time data providing method applied to the experimental data providing system shown in FIG. 3 will be described in detail.

도 1은 본 발명에 의한 증강현실 기반의 실시간 데이터 제공 방법의 일 실시예를 설명하는 흐름도이다.1 is a flowchart illustrating an embodiment of a method for providing augmented reality-based real-time data according to the present invention.

먼저, 휴대단말기(200)는 증강현실 기반의 데이터를 디스플레이 하기 위한 대상이 되는 적어도 하나의 대상객체를 설정한다(단계 S100). 예를 들어, 도 5에 나타난 바와 같이 비커에 들어있는 액체에 의해 낮아진 온도와 실내온도를 측정하는 경우, 대상객체는 액체를 포함한 비커(Obj)를 포함할 수 있다.First, the mobile terminal 200 sets at least one target object to be an object for displaying augmented reality-based data (step S100). For example, as shown in FIG. 5, when measuring the temperature lowered by the liquid in the beaker and the room temperature, the target object may include a beaker Obj including the liquid.

이와 같은 대상객체의 설정은 사용자에 의해 입력되어 영상인식 알고리즘을 통해 휴대단말기(200)에서 이루어질 수 있다. 여기서, 대상객체의 설정은 당업자의 요구에 따라 다양한 방법으로 변경되어 적용될 수 있음은 당연하다.The setting of the target object may be input by a user and made in the mobile terminal 200 through an image recognition algorithm. Here, it is obvious that the setting of the target object can be changed and applied in various ways according to the needs of those skilled in the art.

한편, 측정데이터를 원영상에 나타내는 방법으로는, 측정데이터를 대상객체에 인접하여 출력하는 방법과, 사용자에 의해 설정된 마커에 출력하는 방법이 있다.On the other hand, the method of displaying the measurement data in the original image includes a method of outputting the measurement data adjacent to the target object and a method of outputting the measurement data to a marker set by the user.

측정데이터를 대상객체에 인접하여 출력하는 방법의 경우, 하기에서 설명될 마커의 추적과정을 생략할 수 있으며, 출력 위치를 사용자가 직접 지정할 수 있다. 측정데이터를 마커에 출력하는 경우, 하기에서 설명될 대상객체 확인을 생략할 수 있다.In the case of a method of outputting the measurement data adjacent to the target object, the tracking process of the marker to be described below may be omitted, and the output position may be directly designated by the user. When outputting the measurement data to the marker, it may be omitted to identify the target object to be described below.

본 발명에서는 실험이 진행되는 과정에서 사용자(실험자)에 의해 대상객체가 제거되는 경우(대상객체가 이후 실험진행에 불필요하여 실험현장에서 치워진 경우 등), 해당 대상객체에 대응하는 측정데이터가 마커에 지속적으로 나타나는 것을 방지하기 위하여, 원영상에서 대상객체를 인식하고 원영상에 포함된 대상객체에 대응하는 마커에만 측정데이터를 출력하는 것으로 설명하기로 한다.In the present invention, when the target object is removed by the user (experimental) in the course of the experiment (when the target object is removed from the experiment site because it is not necessary for the subsequent experiment progress), the measurement data corresponding to the target object is marked In order to prevent it from appearing continuously, it will be described as recognizing a target object in the original image and outputting measurement data only to a marker corresponding to the target object included in the original image.

대상객체가 설정되면 사용자는 실험을 시작할 수 있으며, 휴대단말기(200)는 사용자에 의해 실험이 시작되면 실험현장을 촬영하면서, 촬영된 원영상을 영상인식처리하여 설정된 대상객체 중 원영상에 포함된 대상객체를 확인한다(단계 S200).When the target object is set, the user can start the experiment, and when the experiment is started by the user, the mobile terminal 200 captures the experiment site and processes the image of the captured original image to be included in the original image of the set target object. Check the target object (step S200).

그리고, 휴대단말기(200)는 원영상 내에서 대상객체의 측정데이터를 디스플레이하기 위한 마커(Marker)의 위치를 추적한다(단계 S300). 마커의 위치를 추적하는 방법에 대해서는 하기에서 보다 구체적으로 설명하기로 한다.Then, the mobile terminal 200 tracks the position of a marker for displaying the measurement data of the target object in the original image (step S300). A method of tracking the position of the marker will be described in more detail below.

이후 도 5에 나타난 센서(S)로부터 측정데이터가 수신되면, 휴대단말기(200)는 원영상에 포함된 대상객체별 측정데이터를 마커위치에 대응하도록 원영상에 오버래핑하여 도 5에 나타난 바와 같은 가공영상을 생성한다(단계 S400). 가공영상은 센서나 실험상황에 따라 텍스트, 그래프, 도형 등의 다양한 이미지형태로 생성된다.Subsequently, when the measurement data is received from the sensor S shown in FIG. 5, the mobile terminal 200 overlaps the measurement data for each object included in the original image to the original image to correspond to the marker position, thereby processing as shown in FIG. 5. An image is generated (step S400). The processed image is generated in various image forms such as text, graph, figure, etc. according to the sensor or experimental situation.

도 5에서, 'M1'은 어느 하나의 대상객체(Obj)에 대응하는 마커이고, 'M2'는 다른 하나의 대상객체(실내공간)에 대응하는 마커이며, 'D1'은 어느 하나의 대상객체(Obj)에 의한 온도를 측정한 데이터이고, 'D2'는 다른 하나의 대상객체에 의한 온도(실내온도)를 측정한 데이터이다.In FIG. 5, 'M1' is a marker corresponding to one target object Obj, 'M2' is a marker corresponding to another target object (indoor space), and 'D1' is any one target object. The temperature measured by Obj is measured and 'D2' is measured by measuring the temperature (indoor temperature) by another target object.

휴대단말기(200)는 상기와 같은 과정에 의해 얻어진 원영상, 대상객체별 측정데이터 및 가공영상 중 적어도 하나를, 실험데이터 제공서버(300) 및 클라이언트(400) 중 적어도 하나에 실험데이터로 제공한다(단계 S500).The mobile terminal 200 provides at least one of the original image, the measurement data for each object, and the processed image obtained by the above process to the at least one of the experimental data providing server 300 and the client 400 as experimental data. (Step S500).

도 2는 도 1의 단계 'S300'에 대한 구체적인 일 실시예를 설명하는 흐름도이다.FIG. 2 is a flowchart illustrating a specific embodiment of step S300 of FIG. 1.

먼저, 휴대단말기(200)는 원영상에서 밝기성분을 제거할 수 있다(과정 S301). 예를 들어, 휴대단말기(200)는 원영상을 YUV영상으로 변환한 후, 변환된 YUV영상에서 Y성분(명암)을 제거할 수 있다. Y성분의 제거는 실내외의 다양한 실험환경에서 마커의 인식율을 높일 수 있다.First, the mobile terminal 200 may remove the brightness component from the original image (step S301). For example, the mobile terminal 200 may convert the original image into a YUV image and then remove a Y component (contrast) from the converted YUV image. Removal of the Y component can increase the recognition rate of the marker in a variety of indoor and outdoor experimental environments.

원영상에서 밝기성분이 제거되면, 휴대단말기(200)는 마커의 색상으로 설정된 색상값을 갖는 픽셀을 추출할 수 있다(과정 S302). 예를 들어, 휴대단말기(200)는 UV영상의 좌표에서 해당 색상값을 검출할 수 있다.When the brightness component is removed from the original image, the mobile terminal 200 may extract a pixel having a color value set as the color of the marker (step S302). For example, the mobile terminal 200 may detect a corresponding color value from the coordinates of the UV image.

그리고, 휴대단말기(200)는 추출된 설정픽셀들 중 인접된 픽셀들을 하나의 독립된 영역으로 분류할 수 있으며(과정 S303), 각각의 영역에 대한 면적을 산출하여 분류된 픽셀영역들 중 설정범위 이내에 포함된 픽셀영역을 마커영역으로 선택할 수 있다(과정 S304). 예를 들어, 도 5에 나타난 'M1'과 'M2'의 면적에 대하여 일정한 허용오차 범위에 해당하는 면적을 설정범위로 설정함으로써, 'M1'과 'M2'를 마커로 선택할 수 있다.In addition, the mobile terminal 200 may classify adjacent pixels among the extracted set pixels into one independent area (step S303), and calculate an area for each area to be within a set range of the classified pixel areas. The included pixel area can be selected as the marker area (step S304). For example, 'M1' and 'M2' may be selected as markers by setting an area corresponding to a predetermined tolerance range with respect to the areas of 'M1' and 'M2' shown in FIG. 5.

이 후, 휴대단말기(200)는 실시간으로 촬영되는 영상에 대하여, 상기와 같은 과정에 의해 선택된 마커영역의 위치를 실시간으로 추적할 수 있으며(과정 S305), 도 1에 나타난 바와 같이 추적하여 확인되는 마커의 위치에 측정데이터를 오버래핑할 수 있다.Thereafter, the mobile terminal 200 can track the position of the marker region selected by the above process in real time with respect to the image photographed in real time (step S305), which is confirmed by tracking as shown in FIG. The measurement data can be overlapped at the position of the marker.

도 4는 도 3에 나타난 휴대단말기의 일 실시예를 설명하는 블록도이다.4 is a block diagram illustrating an embodiment of the mobile terminal shown in FIG. 3.

도 4를 참조하면, 본 발명에 의한 증강현실 기반의 실시간 데이터를 제공하는 휴대단말기(200)는 영상촬영부(210), 영상인식부(220), 마커확인부(230), 가상현실 매핑부(240) 및 디스플레이(250)를 포함한다.Referring to FIG. 4, the mobile terminal 200 for providing augmented reality-based real-time data according to the present invention includes an image photographing unit 210, an image recognition unit 220, a marker checker 230, and a virtual reality mapping unit. 240 and display 250.

영상촬영부(210)는 현장의 실험상황을 원영상으로 촬영하는 것으로, 휴대단말기(200)에 내장된 카메라를 포함할 수 있다. 물론, 당업자에 의해 별도의 카메라를 설치하여 실험상황을 촬영할 수 있으며, 이러한 경우 카메라에 의해 촬영된 원영상은 휴대단말기(200)로 제공될 수 있다.The image capturing unit 210 captures the experimental situation of the scene as an original image, and may include a camera built in the mobile terminal 200. Of course, a separate camera can be installed by a person skilled in the art to photograph the experimental situation. In this case, the original image photographed by the camera can be provided to the mobile terminal 200.

영상인식부(220)는 영상촬영부(210)에서 촬영된 원영상을 영상인식처리하여 설정된 대상객체를 확인하는 것으로, 객체설정부(225)에 대상객체에 대한 영상정보를 요청하고, 수신된 설정정보에 기초하여 원영상에서 대상객체를 추출할 수 있다.The image recognizing unit 220 checks the target object set by image recognition processing of the original image photographed by the image capturing unit 210, requests the object setting unit 225 for image information on the target object, and receives the received image. The target object may be extracted from the original image based on the setting information.

객체설정부(225)는 사용자의 설정에 대응하여 해당 실험의 대상이 되는 대상객체 및 마커 중 적어도 하나에 대한 이미지, 색상 및 크기 중 적어도 하나를 포함하는 영상정보를 영상인식부(220)로 전송할 수 있다. 여기서, 객체설정부(225)는 영상정보를 저장한 상태에서, 영상인식부(220)의 요청에 의해 저장된 영상정보를 전송할 수 있다. 또한, 객체설정부(225)는 사용자에 의해 입력된 영상정보를 영상인식부(220)에 전송할 수 있다.The object setting unit 225 transmits image information including at least one of an image, a color, and a size of at least one of a target object and a marker that is a target of the experiment to the image recognition unit 220 in response to a user's setting. Can be. Here, the object setting unit 225 may transmit the stored image information at the request of the image recognition unit 220 while storing the image information. In addition, the object setting unit 225 may transmit the image information input by the user to the image recognition unit 220.

마커확인부(230)는 영상인식부(220)에서 영상인식처리된 원영상에서, 원영상에 포함된 대상객체에 대응하는 마커(Marker)를 추적할 수 있으며, 영상인식부(220)에서 전송된 원영상, 영상처리된 대상객체 및 마커에 대한 데이터를 가상현실 매핑부(240)로 전송할 수 있다.The marker checker 230 may track a marker corresponding to a target object included in the original image from the image recognized by the image recognizer 220, and may be transmitted from the image recognizer 220. Data about the original image, the processed target object, and the marker may be transmitted to the virtual reality mapping unit 240.

가상현실 매핑부(240)는 마커확인부(230)에서 확인된 대상객체의 마커에, 해당 대상객체의 측정데이터를 오버래핑하여 도 5와 같은 가공영상을 생성할 수 있다. 이때, 가상현실 매핑부(240)는 측정데이터 수신부(245)를 통해 센서에 의해 측정된 데이터를 수신할 수 있다.The virtual reality mapping unit 240 may generate the processed image as shown in FIG. 5 by overlapping the measurement data of the target object with the marker of the target object identified by the marker identification unit 230. In this case, the virtual reality mapping unit 240 may receive data measured by the sensor through the measurement data receiver 245.

측정데이터 수신부(245)는 해당 실험에 대응하여 설치된 센서(예를 들어, 온도센서)로부터 대상객체의 변화(예를 들어, 온도변화)를 측정하고, 측정된 측정데이터를 가상현실 매핑부(240)로 전송할 수 있다.The measurement data receiver 245 measures a change (eg, temperature change) of a target object from a sensor (eg, a temperature sensor) installed in response to the experiment, and measures the measured data in the virtual reality mapping unit 240. ) Can be sent.

디스플레이(250)는 가상현실 매핑부(240)에서 생성된 가공영상을 사용자의 설정에 대응하여 출력할 수 있다. 또한, 본 발명에 의한 증강현실 기반의 실시간 데이터를 제공하는 휴대단말기(200)는 데이터처리부(260) 및 데이터저장부(270)를 더 포함할 수 있다.The display 250 may output the processed image generated by the virtual reality mapping unit 240 according to a user's setting. In addition, the mobile terminal 200 for providing augmented reality-based real-time data according to the present invention may further include a data processor 260 and a data storage unit 270.

데이터처리부(260)는 가상현실 매핑부(240)로부터 전송된 데이터를 다양한 형태의 포멧(정지영상, 동영상, HTML)으로 변환하여, 데이터저장부(270)에 저장하거나 송수신부(265)를 통해 실험데이터 제공서버(300) 또는 클라이언트(400) 등의 외부장치로 전송할 수 있다.The data processor 260 converts the data transmitted from the virtual reality mapping unit 240 into various types of formats (still image, video, HTML), and stores the data in the data storage 270 or through the transceiver 265. The experimental data may be transmitted to an external device such as a server 300 or a client 400.

보다 구체적으로, 데이터처리부(260)는 가상현실 매핑부(240)로부터 원영상, 대상객체별 측정데이터 및 가공영상 중 적어도 하나를 전송받을 수 있고, 수신된 대상객체별 측정데이터 및 가공영상 중 적어도 하나를 사용자의 설정에 대응하여 변환할 수 있다.More specifically, the data processor 260 may receive at least one of the original image, the measurement data for each target object, and the processed image from the virtual reality mapping unit 240, and at least one of the received measurement data and the processed image for each target object. One can be converted corresponding to the user's setting.

데이터저장부(270)는 데이터처리부(260)에서 변환된 대상객체별 측정데이터, 가공영상 및 상기 원영상을 분류하여 저장하는 것으로, 원영상을 동영상으로 저장하는 원영상 저장모듈(271), 측정데이터를 대상객체별 항목으로 분류하여 저장하는 측정데이터 저장모듈(272) 및 가공영상을 증강현실 기반으로 저장하는 가공영상 저장모듈(273)을 포함할 수 있다.The data storage unit 270 classifies and stores the measured data for each object converted from the data processing unit 260, the processed image, and the original image, and stores the original image as a video, and stores the original image as a video. It may include a measurement data storage module 272 for classifying the data into items for each target object and a processed image storage module 273 for storing the processed image on the basis of augmented reality.

이상에서 본 발명에 의한 증강현실 기반의 실시간 데이터 제공 방법 및 이를 이용한 휴대단말기에 대하여 설명하였다. 이러한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.In the above, the augmented reality based real-time data providing method and a portable terminal using the same have been described. It will be understood by those skilled in the art that the technical features of the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof.

그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 전술한 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지는 것이므로, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
Therefore, it is to be understood that the embodiments described above are intended to be illustrative, and not restrictive, in all respects, and that the scope of the invention is indicated by the appended claims rather than the foregoing description, And all equivalents and modifications that come within the meaning and range of equivalency of the claims are to be embraced within their scope.

100 : 센서
200 : 휴대단말기 210 : 영상촬영부
220 : 영상인식부 225 : 객체설정부
230 : 마커확인부 240 : 가상현실 매핑부
245 : 측정데이터 수신부 250 : 디스플레이
260 : 데이터처리부 265 : 송수신부
270 : 데이터저장부 271 : 원영상 저장모듈
272 : 측정데이터 저장모듈 273 : 가공영상 저장모듈
300 : 실험데이터 제공서버
400 : 클라이언트
100: Sensor
200: mobile terminal 210: video recording unit
220: image recognition unit 225: object setting unit
230: marker check unit 240: virtual reality mapping unit
245: measurement data receiver 250: display
260: data processor 265: transceiver
270: data storage unit 271: original image storage module
272: measurement data storage module 273: processed image storage module
300: experimental data providing server
400: client

Claims (5)

증강현실 기반의 데이터를 디스플레이 하기 위한 대상이 되는 적어도 하나의 대상객체를 설정하는 대상객체 설정단계;
촬영된 원영상을 영상인식처리하여 설정된 상기 대상객체 중 상기 원영상에 포함된 대상객체를 확인하는 대상객체 확인단계;
상기 원영상 내에서 상기 대상객체의 측정데이터를 디스플레이하기 위한 마커(Marker)의 위치를 추적하는 마커위치 확인단계;
상기 원영상에 포함된 대상객체별 측정데이터를 상기 마커위치에 대응하도록 상기 원영상에 오버래핑하여 가공영상을 생성하는 가공영상 생성단계; 및
상기 원영상, 대상객체별 측정데이터 및 가공영상 중 적어도 하나를 실험데이터로 제공하는 실험정보 제공단계를 포함하며,
상기 마커위치 확인단계는,
상기 원영상에서 밝기성분을 제거하는 원영상 보정과정;
상기 마커의 색상으로 설정된 색상값을 갖는 픽셀을 추출하는 설정픽셀 추출과정;
추출된 상기 설정픽셀들 중 인접된 픽셀들을 하나의 영역으로 분류하는 픽셀영역 확인과정;
분류된 픽셀영역들 중 설정범위 이내에 포함된 픽셀영역을 마커영역으로 선택하는 마커영역 확인과정; 및
선택된 마커영역의 위치를 추적하는 마커위치 추적과정을 포함하는 것을 특징으로 하는 증강현실 기반의 실시간 데이터 제공 방법.
A target object setting step of setting at least one target object as a target for displaying augmented reality-based data;
A target object checking step of checking a target object included in the original image among the target objects set by image recognition processing of the captured original image;
A marker position checking step of tracking a position of a marker for displaying measurement data of the target object in the original image;
A processed image generation step of generating a processed image by overlapping the measurement data for each object included in the original image with the original image so as to correspond to the marker position; And
Experimental information providing step of providing at least one of the original image, the measurement data for each object and the processed image as experimental data,
The marker position checking step,
An original image correction process of removing brightness components from the original image;
A setting pixel extraction process of extracting a pixel having a color value set as the color of the marker;
A pixel area checking process of classifying adjacent pixels among the extracted set pixels into one area;
A marker region checking step of selecting a pixel region included in a set range among the classified pixel regions as a marker region; And
Augmented reality-based real-time data providing method comprising a marker position tracking process for tracking the position of the selected marker region.
삭제delete 실험상황을 원영상으로 촬영하는 영상촬영부;
상기 영상촬영부에서 촬영된 원영상을 영상인식처리하여 설정된 대상객체를 확인하는 영상인식부;
상기 영상인식부에서 영상인식처리된 원영상에서 상기 대상객체에 대응하는 마커(Marker)를 추적하는 마커확인부;
상기 마커에 상기 대상객체의 측정데이터를 오버래핑하여 가공영상을 생성하는 가상현실 매핑부; 및
상기 가상현실 매핑부에서 생성된 가공영상을 사용자의 설정에 대응하여 출력하는 디스플레이를 포함하며,
상기 가상현실 매핑부로부터 상기 원영상, 대상객체별 측정데이터 및 가공영상 중 적어도 하나를 전송받고, 상기 대상객체별 측정데이터 및 가공영상 중 적어도 하나를 사용자의 설정에 대응하여 변환하는 데이터처리부;
상기 데이터처리부에서 변환된 상기 대상객체별 측정데이터, 가공영상 및 상기 원영상을 분류하여 정지영상 또는 동영상으로 저장하는 데이터저장부; 및
상기 데이터처리부 또는 상기 데이터저장부로부터 변환 또는 저장된 상기 대상객체별 측정데이터, 가공영상 및 상기 원영상을 외부장치로 전송하는 송수신부를 더 포함하는 것을 특징으로 하는 증강현실 기반의 실시간 데이터 제공 방법을 이용한 휴대단말기.
Image capturing unit for photographing the experimental situation in the original image;
An image recognition unit to identify a target object set by image recognition processing of the original image photographed by the image photographing unit;
A marker identification unit for tracking a marker corresponding to the target object in the original image processed by the image recognition unit;
A virtual reality mapping unit for generating a processed image by overlapping the measurement data of the target object on the marker; And
It includes a display for outputting the processed image generated by the virtual reality mapping unit corresponding to the user's setting,
A data processor configured to receive at least one of the original image, the measurement data for each object, and the processed image from the virtual reality mapping unit, and convert at least one of the measurement data for each object and the processed image according to a user's setting;
A data storage unit for classifying the measured data for each target object, the processed image, and the original image converted by the data processing unit and storing them as a still image or a moving image; And
Using the augmented reality-based real-time data providing method further comprises a transmission and reception unit for transmitting the measurement data, processed image and the original image for each target object converted or stored from the data processing unit or the data storage unit to an external device. Mobile terminal.
제 3항에 있어서,
사용자의 설정에 대응하여 상기 실험의 대상이 되는 상기 대상객체 및 상기 마커 중 적어도 하나에 대한 이미지, 색상 및 크기 중 적어도 하나를 포함하는 영상정보를 상기 영상인식부로 전송하는 객체설정부; 및
상기 실험에 대응하여 설치된 센서로부터 상기 대상객체의 변화를 측정한 측정데이터를 상기 가상현실 매핑부로 전송하는 측정데이터 수신부를 더 포함하는 것을 특징으로 하는 증강현실 기반의 실시간 데이터 제공 방법을 이용한 휴대단말기.
The method of claim 3, wherein
An object setting unit configured to transmit image information including at least one of an image, a color, and a size of at least one of the target object and the marker to be the target of the experiment in response to a user setting; And
And a measurement data receiver for transmitting the measurement data measuring the change of the target object from the sensor installed in response to the experiment to the virtual reality mapping unit.
삭제delete
KR1020130094592A 2013-08-09 2013-08-09 Real time data providing method and system based on augmented reality and portable terminal using the same Expired - Fee Related KR101360999B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130094592A KR101360999B1 (en) 2013-08-09 2013-08-09 Real time data providing method and system based on augmented reality and portable terminal using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130094592A KR101360999B1 (en) 2013-08-09 2013-08-09 Real time data providing method and system based on augmented reality and portable terminal using the same

Publications (1)

Publication Number Publication Date
KR101360999B1 true KR101360999B1 (en) 2014-02-10

Family

ID=50270463

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130094592A Expired - Fee Related KR101360999B1 (en) 2013-08-09 2013-08-09 Real time data providing method and system based on augmented reality and portable terminal using the same

Country Status (1)

Country Link
KR (1) KR101360999B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160073025A (en) 2014-12-16 2016-06-24 이주성 Object generation apparatus and method of based augmented reality using actual measured
WO2018016928A1 (en) * 2016-07-22 2018-01-25 김계현 Virtual reality implementation system and virtual reality implementation method thereof
CN107801016A (en) * 2017-09-15 2018-03-13 上海理工大学 Virtual long diagnoses and treatment system
CN113366541A (en) * 2019-05-30 2021-09-07 三星电子株式会社 Method and device for acquiring virtual object data in augmented reality
CN113672090A (en) * 2021-08-25 2021-11-19 上海电气集团股份有限公司 Structural mechanics test interaction method and equipment
WO2023163376A1 (en) * 2022-02-25 2023-08-31 계명대학교 산학협력단 Virtual collaboration non-contact real-time remote experimental system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130011037A (en) * 2011-07-20 2013-01-30 국민대학교산학협력단 Knowledge based augmented reality system
KR20130042219A (en) * 2011-10-18 2013-04-26 한국과학기술연구원 Mixed object, tangible science experiment system and providing method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130011037A (en) * 2011-07-20 2013-01-30 국민대학교산학협력단 Knowledge based augmented reality system
KR20130042219A (en) * 2011-10-18 2013-04-26 한국과학기술연구원 Mixed object, tangible science experiment system and providing method thereof

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160073025A (en) 2014-12-16 2016-06-24 이주성 Object generation apparatus and method of based augmented reality using actual measured
WO2018016928A1 (en) * 2016-07-22 2018-01-25 김계현 Virtual reality implementation system and virtual reality implementation method thereof
CN107801016A (en) * 2017-09-15 2018-03-13 上海理工大学 Virtual long diagnoses and treatment system
CN113366541A (en) * 2019-05-30 2021-09-07 三星电子株式会社 Method and device for acquiring virtual object data in augmented reality
CN113672090A (en) * 2021-08-25 2021-11-19 上海电气集团股份有限公司 Structural mechanics test interaction method and equipment
WO2023163376A1 (en) * 2022-02-25 2023-08-31 계명대학교 산학협력단 Virtual collaboration non-contact real-time remote experimental system
KR20230127734A (en) * 2022-02-25 2023-09-01 계명대학교 산학협력단 Virtual Collaboration Non-Face-To-Face Real-Time Remote Experiment System
KR102706447B1 (en) * 2022-02-25 2024-09-11 계명대학교 산학협력단 Virtual Collaboration Non-Face-To-Face Real-Time Remote Experiment System

Similar Documents

Publication Publication Date Title
CN106446873B (en) Face detection method and device
KR101360999B1 (en) Real time data providing method and system based on augmented reality and portable terminal using the same
CN106228628B (en) Check-in system, method and device based on face recognition
IL256885A (en) Apparatus and methods for facial recognition and video analytics to identify individuals in contextual video streams
JP5783885B2 (en) Information presentation apparatus, method and program thereof
KR101239284B1 (en) Control terminal and server for managing target devices using Augmented Reality Contents
CN103168467A (en) Security camera tracking and monitoring system and method using thermal image coordinates
KR20150039252A (en) Apparatus and method for providing application service by using action recognition
US9554060B2 (en) Zoom images with panoramic image capture
TW201222288A (en) Image retrieving system and method and computer program product thereof
CN114494487B (en) House type graph generation method, device and storage medium based on panorama semantic stitching
CN112434546A (en) Face living body detection method and device, equipment and storage medium
CN113642639A (en) Living body detection method, living body detection device, living body detection apparatus, and storage medium
CN106775258A (en) The method and apparatus that virtual reality is interacted are realized using gesture control
EP3462734A1 (en) Systems and methods for directly accessing video data streams and data between devices in a video surveillance system
CN108804971A (en) A kind of image identification system, augmented reality show equipment and image-recognizing method
WO2016191528A1 (en) Pre-capture de-identification (pcdi) imaging system and pcdi optics assembly
US10535154B2 (en) System, method, and program for image analysis
TWM482797U (en) Augmented-reality system capable of displaying three-dimensional image
US20170200044A1 (en) Apparatus and method for providing surveillance image based on depth image
CN107704851B (en) Character identification method, public media display device, server and system
KR20220124676A (en) Real Estate Information Providing Method and the Application Performing thereof
CN112073640B (en) Panoramic information acquisition pose acquisition method, device and system
CN109785439A (en) Human face sketch image generating method and Related product
CN117499778B (en) Character image shooting interface interaction method and device and electronic equipment

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20130809

PA0201 Request for examination
A302 Request for accelerated examination
PA0302 Request for accelerated examination

Patent event date: 20131011

Patent event code: PA03022R01D

Comment text: Request for Accelerated Examination

Patent event date: 20130809

Patent event code: PA03021R01I

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20131119

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20140129

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20140204

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20140204

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20170203

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20170203

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20180226

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20180226

Start annual number: 5

End annual number: 5

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20191115

OSZAR »