Earticle

현재 위치 Home

Issues

한국차세대컴퓨팅학회 논문지 [THE JOURNAL OF KOREAN INSTITUTE OF NEXT GENERATION COMPUTING]

간행물 정보
  • 자료유형
    학술지
  • 발행기관
    한국차세대컴퓨팅학회 [Korean Institute of Next Generation Computing]
  • pISSN
    1975-681X
  • 간기
    격월간
  • 수록기간
    2005 ~ 2026
  • 등재여부
    KCI 등재
  • 주제분류
    공학 > 컴퓨터학
  • 십진분류
    KDC 566 DDC 004
Vol.17 No.5 (8건)
No
1

WiFi를 비롯한 저비용 통신기술이 보편화 되면서 사용자는 이동 중에도 콘텐츠를 지속적으로 사용할 수 있게 되었고, 통신 모듈이 탑재된 스마트 기기의 확산 및 다변화로 인해 콘텐츠 공유를 통한 장치 간 스크린 전환 기법인 N-스크린 디스플레이 기술에 대한 수요가 높아지고 있다. OTT 서비스 사업자를 중심으로 N-Screen 디스플레이 기술 개발이 진행되고 있으나, 사용자의 개입 및 조작이 필요하다는 제약이 있다. 본 논문에서는 사용자의 개입이 불필요한 자동화 N-스크린 디스플레이 기술을 위한 시스템 설계 및 개발결과를 소개한다. 특히, 사용자가 대부분 시간을 소비하는 실 내 환경에서 실시간 사용자 위치를 기반으로 최적의 디스플레이를 선택하고 콘텐츠를 자동으로 전환하여 재생하는 기 술을 제안한다. 또한, 사용자의 주변 환경을 지속적으로 인지하고 환경 변화에 따른 동적 콘텐츠 전환기술을 통해 제 안하는 기술은 사용자의 안전을 위협할 수 있는 이벤트에 즉각 대응할 수 있다. 제안하는 시스템의 검증을 위해 실험 을 진행하였고, 그 결과를 바탕으로 신속한 스크린 전환, 정확한 환경인지 및 대응이 가능함을 확인했다.

Due to the widespread use of low-cost communication technologies, such as WiFi, users can access contents on the go. In addition, the proliferation and diversification of smart devices with communication modules increase the demand for the N-screen display technology which enables seamless screen switching across devices. Although there has been progress in the n-screen technology mainly driven by the over-the-top service providers, there still remains a critical limitation, which is the fact that user intervention is mandatory. In this paper, both the automated N-screen display system design and its implementation are presented in a way that does not require user involvement. In particular, the proposed system automatically changes screens based on the user’s current location indoors. Furthermore, the proposed system consistently senses the environment and chooses the optimal content to display, so that the user can quickly react to events that may threaten his or her safety. To validate the proposed system, we conducted a set of experiments and demonstrated that the proposed system can quickly switch between screens and recognize critical events occurring in the vicinity of a user.

2

효과적인 비전 트랜스포머를 통한 화재 감지

히크마트 야르, 탄비어 후세인, 줄피카르 아마드 칸, 이미영, 백성욱

한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 논문지 Vol.17 No.5 2021.10 pp.21-30

오늘날 현대사회에서 스마트하고 안전한 도시는 연구 커뮤니티의 주요 관심사 중 하나이다. 도시들은 개방된 지역, 농경지, 숲으로 둘러싸여 있으며, 화재 발생은 인간의 삶을 위협하고 그들의 재산도 손상시킬 수 있다. 최근 비전 센서 기반 화재 감지 기술은 컴퓨터 비전 분야의 전문가들을 통해, 최신 문헌에서 다양한 컨볼루션 신경 네트워크 (CNN)을 대한 최고의 성능을 달성하고 있다. 그러나 이러한 기술은 변환 불변이고, 지역성에 민감하며, 이미지에 대한 전체적인 이해가 부족하다. 또한 CNN 기반 모델은 계산 비용을 줄이기 위해 차원 축소를 위한 풀링 레이어 전략을 사용했지만, 가장 활동적인 특징 검출기의 정확한 위치와 같은 많은 의미 있는 정보를 손실한다. 이러한 문 제를 극복하기 위해 본 연구에서는 비전 트랜스포머(ViT)기반 화재 감지 모델을 개발하였다. ViT는 입력 이미지를 이미지 패치로 분할한 다음 워드 임베딩과 유사한 시퀀스 구조로 트랜스포머에 제공한다. 우리는 벤치마크 화재 데 이터 세트에서 제안된 작업의 성능을 평가하고 최신(SOTA) CNN 방법과 비교할 때 좋은 결과를 달성한다.

In today's modern age, smart and safe cities are one of the major concerns of the research community. The cities are surrounded by open areas, agricultural land, and forests, where fire incidence can make human lives threatening, damaging their properties as well. Recently, vision sensors-based fire detection has attracted computer vision domain experts, where the leading performance is achieved by a variety of convolution neural networks(CNN) in the recent literature. However, these techniques are translation invariant, locality-sensitive, and lacking a global understanding of images. Furthermore, CNN-based models use the pooling layers strategy for dimensionality reduction to reduce the computational cost but it also loses a lot of meaningful information such as the precise location of the most active feature detector. To overcome these problems, in this work, we developed Vision Transformers(ViT) based model for fire detection. The ViT split the input image into image patches and then feed these patches to the transformer in a sequence structure similar to word embeddings. We evaluate the performance of the proposed work on the benchmark fire dataset and achieve good results when compared to state-of-the-art(SOTA) fire detection CNN models.

3

본 논문에서는 PBD(Position Based Dynamics) 물리 변형 기법을 활용하여 수술 전 촬영된 뇌의 영상을 통해 생성한 3차원 뇌 모델에 수술기구의 움직임으로 인한 뇌의 변형을 반영하고, 이를 가시화하는 AR(Augmented Reality) 기반 뇌실천자술 시뮬레이션 기법을 제안한다. 적외선 카메라 기반 AR 수술 환경을 구축하여 현실 세계 와 가상 공간을 일치시키고 수술 기구를 추적하였으며, 연체의 특성을 유지하며 안정적인 변형을 가능하도록 하기 위해 constraint를 이용한 변형 안정화 및 특성 유지 기법을 적용하였다. 스마트글래스에 증강되는 정보를 이용하 여 수술기구를 뇌실까지 삽입하여 뇌척수액 배액을 성공적으로 수행하였으며, 변형 시뮬레이션 속도는 평균 7.24fps를 보였다.

In this paper, We propose a simulation method of brain deformation caused by surgical instruments using position based dynamics. We used infrared cameras to build AR surgical environment. It is used to match virtual space with real world and to track surgical instruments. We applied the various constraint for stable deformation while maintaining softbody properties. We inserted surgical instruments to the ventricle using augmented information and successfully drained it. The simulation speed of our method was 7.24fps on average.

4

최근 국내 자동차 등록 대수가 지속해서 증가함에 따라, 연 20만 건 이상의 교통사고가 꾸준히 발생하고 있다. 자동 차 관련 교통사고의 원인 파악 및 책임 소재 규명을 위해 자동차에 연결된 기기들에 저장된 정보들을 활용할 수 있 다. 이들 중, 차량의 AVN(Audio-Video Navigation)은 운전자의 모바일 기기와 연결되어, 내비게이션과 엔터테 인먼트와 같은 편의 서비스를 제공한다. 이에 따라 차량의 AVN과 연동된 모바일 기기에 저장되는 데이터가 차량 사고의 원인 파악 및 책임 소재 규명을 위한 중요한 요소가 될 수 있다. 본 논문은 AVN과 연동된 모바일 기기의 블루투스 HCI 스눕 로그(Bluetooth HCI snoop log)를 기반으로, AVN과 모바일 기기 간에 전화번호부 전송기 록, 최근 통화기록, 통화나 미디어 재생기록을 분석하여 사용자 행위를 파악하는 방법을 제안한다. 이를 통해, AVN 과 연동된 모바일 기기에 기록된 블루투스 패킷 정보가 차량 포렌식의 기초 자료 및 차량 사고의 원인 파악에 활용 될 수 있음을 보인다.

Recently, as the number of registered vehicles in Korea continues to increase, more than 200,000 traffic accidents occur steadily each year. The information stored in the devices communicating with a vehicle can be utilized to identify the cause of vehicle-related traffic accidents and determine what factors are responsible for the accidents. Among the devices, a car Audio-Video Navigation(AVN) system can be connected to a mobile device of the driver and provide convenient services such as nagivation and entertainment. Therefore, the information stored in the mobile device connected to the AVN of the vehicle can also be an important factor for identifying the cause of vehicle accidents and determining who is responsible. Based on the Bluetooth HCI snoop log of a mobile device paired with the AVN, this paper proposes a method to identify user behavior by analyzing the phonebook transmission record between the AVN and mobile device, recent call log, and call or media playback records. As a result, it is shown that the Bluetooth packet information recorded in the mobile device paired with an car AVN can be utilized to identify the cause of a vehicle accident and the basic data of vehicle forensics.

5

영상 분할은 각 영상 픽셀에 연결된 클래스 레이블로 레이블을 지정하는 과정이다. 대부분의 이미지 분할 작업은 U-Net과 같은 인코더 기반 방식을 사용하며, 이는 영상 분할에 가장 많이 사용되는 딥러닝 방법중 하나이다. 본 논 문에서는 피부 병변 분할을 위한 새로운 공간 그룹 컨벌루션(SGC, Spatial Group Convolutions)을 이용한 인코 더 기반 영상 분할 방법을 제안한다. SGC는 1×1, 3×3, 5×5, 7×7과 같은 여러 크기의 변환 커널을 사용하고 이러 한 각 k×k 커널 크기의 연산은 k×1 변환과 1×k 변환의 조합으로 분해될 수 있다. 두 개의 1-D 커널을 사용하는 크기가 큰 커널은 공간 정보의 특징을 더 잘 추출할 수 있으며 제한된 학습 가능 파라미터 보다 개선된 모델 학습을 보여준다. SGC 기반 제안 모델은 모델 매개변수의 수를 크게 감소시키면서 분할 정확도가 향상되었음을 실험을 통 해 검증하였다. PH2 테스트 데이터셋에서 제안된 방법에 대한 평균 Jaccard 지수는 89%, 평균 Dice 점수는 93.84%, 평균 정확도 값은 95.99%으로 기존의 방법에 비해 우수한 분할 성능을 보여준다.

Semantic image segmentation is the process of labeling each image pixel with its associated class label. Most of the image segmentation task use an encoder-decoder-based method, like U-Net and its variants which is a popular strategy for solving segmentation tasks. In this paper, we propose an encoder-decoder-based approach with novel spatial group convolutions (SGC) for skin lesion segmentation. The SGC employ multiple-sized convolution kernels such as 1×1, 3×3, 5×5, 7×7, where each of these k×k kernel operations is decomposed as the combination of k×1 convolution followed by 1×k convolution. The large kernel using two 1-D kernels is likely to have better spatial information of the features and shows the improved model learning with the limited learnable parameters and more discriminative feature extraction. The SGC-based proposed model shows improved segmentation accuracy with a significantly reduced number of model parameters. The mean Jaccard index for the proposed method is 89%, the mean dice score is 93.84%, and the mean accuracy value is 95.99 %, with 0.4 million parameters for the proposed method on the PH2 test dataset.

6

의료영상 데이터를 이용하여 볼륨 가시화를 할 때, 대부분의 볼륨 가시화를 수행하는 응용프로그램들은 운영체제 및 특정 컴퓨터 장치에 제약을 받는다. 우리는 이러한 문제점을 해결하고자 운영체제와 특정 컴퓨터 장치로부터 상대적 으로 자유로운 웹 환경에서 볼륨 가시화 응용프로그램을 웹 기반 그래픽 프레임워크인 vtk.js를 이용하여 구현하였 다. vtk.js에서는 가장 핵심적인 기능인 볼륨 가시화를 구현할 때 셰이더 프로그램을 이용한다. 본 논문에서는 셰이 더 프로그램을 수정해 기존에 없던 기능을 확장하여 더 많은 기능을 사용자에게 제공할 수 있음을 보인다. 그 예시로 인체조직의 표면만을 가시화할 때 발생하는 노이즈를 제거하는 기법인 전적분(pre-integration) 기법과 인체조직의 표면을 복잡한 과정 없이 간단하게 볼륨 가시화할 수 있는 그래디언트를 이용한 투명도 조절(gradient opacity) 기 법을 구현하였다. 그리고 이 두 기법은 vtk.js에서 제공하는 기능인 블렌드 모드에 통합하는 데 성공하였다.

When performing volume rendering using medical image data, most applications that perform volume rendering are limited by operating systems and specific computer devices. To solve this problem, we implemented a volume visualization application using vtk.js, a web-based graphic framework, in a web environment that is relatively free from the operating system and specific computer devices. In vtk.js, a shader program is used to implement the most core function volume rendering. In this paper, it is shown that more functions can be provided to users by modifying this shader program to extend functions that did not exist before. As an example, we implemented the pre-integration technique, which is a technique to remove noise generated when only the surface of human tissue is visualized, and the gradient opacity technique, which can simple volume rendering of the surface of human tissue without a complicated process. And these two techniques succeeded in integrating into the blend mode, a function provided by vtk.js.

7

2002년에 제정된 전자정부법에 따라 행정업무 환경이 전자문서 중심으로 전환되면서 전자문서 관리를 위한 1만 6,228개 행정정보시스템과 1만9,533개 데이터베이스가 설치되었다. 2020년에는 공공기록물 관리에 관한 시행령 개정 및 행정정보 데이터세트 기록관리 기준에 관한 공공표준을 제정하여 행정정보 데이터세트에 대한 기록관리를 본격적으로 추진하였다. 이로써 전자문서로 한정되어 있던 기록관리 범위를 데이터세트까지 포괄하게 되었다. 전자 문서는 파일에 보관되므로 파일 단위의 기록관리가 이루어졌지만 데이터세트는 실행 중인 DBMS(관계형, NoSQL 등)에서 관리되므로 파일 단위로 무결성을 검증하는 기존 방식이 적용되기 어렵다. 그래서 본 연구에서는 블록체인 을 기반으로 관계형 그리고 NoSQL 데이터베이스에서 관리되고 있는 데이터세트에 대해서 무결성을 검증할 수 있 는 방안을 제시한다. 실제 프로토타입 구현을 통해 제안한 방안이 DBMS에 관리되는 데이터세트에 대해서도 효과 적으로 무결성을 검증할 수 있음을 증명하였다. 본 논문의 연구결과는 향후 대용량의 전자기록이 생산되는 현재의 기록관리 분야에서 무결성을 검증할 수 있는 기술 기반을 제공할 수 있을 것으로 기대된다.

According to the E-Government Act enacted in 2002, as the government work environment shifted to electronic documents, 16,228 administrative information systems and 19,533 databases were installed to manage electronic documents. In 2020, public records management for administrative information datasets was promoted in earnest by amending the enforcement ordinance on public records management and enacting public standards for administrative information dataset records management standards. The records management system, which was limited to electronic documents, has now been encompassed to the dataset. Since each electronic document is stored in a file, datasets are managed in the currently running DBMS(RDB, NoSQL, etc.), unlike records management in units of files, it is difficult to introduce the existing method of verifying the integrity of each file to datasets. Therefore, in this study, we propose a method to verify the integrity of datasets managed in relational and NoSQL databases based on blockchain. By implementing a prototype, we proved that the proposed method can effectively verify the integrity of datasets in the DBMS. The research results of this paper are expected to provide a technological base to verify the integrity of the current records management field where large-capacity electronic records are produced in the future.

8

인터넷의 발달과 비대면 서비스의 증가로 사용자들 간에 문자나 SNS로 소통하는 경우가 늘어나고 있다. 사용자에 의한 대량의 데이터가 발생하면서 사용자 정보나 의견을 분석하여 감정을 인식하는 연구가 활발하게 진행되고 있다. 그중에서도 텍스트 감정인식은 대부분 단어나 문장의 단일 감정을 인식하고 있다. 그러나 하나의 문장에도 여러 감 정이 복합적으로 존재하기 때문에 다중 감정인식 방법이 필요하다. 따라서 본 논문에서는 더욱 정확한 텍스트 감정 인식을 위해 데이터를 보정하는 방법과 딥러닝 기반의 다중 감정인식 방법을 적용한 감정인식 성능향상 방법을 제안 한다. 제안한 모델의 유용성을 확인하기 위해 딥러닝 모델을 비교 실험한 결과 Attention 모델을 사용했을 때 Accuracy가 76.7%로 가장 좋은 성능을 보였다.

With the development of the Internet and the increase of non-face-to-face services, the number of users communicating through text messages or SNS is increasing. As a large amount of data is generated by users, research on recognizing emotions by analyzing user information or opinions is being actively conducted. Among them, most of the text emotion recognition recognizes a single emotion of a word or sentence. However, since multiple emotions exist complexly in a single sentence, a multi-emotion recognition method is required. Therefore, in this paper, we propose a data correction method for more accurate text emotion recognition and a method to improve emotion recognition performance by applying a deep learning-based multi-emotion recognition method. As a result of comparing deep learning models to confirm the usefulness of the proposed model, when the attention model was used, Accuracy showed the best performance with 76.7%.

 
페이지 저장