2026 (10)
2025 (62)
2024 (55)
2023 (53)
2022 (56)
2021 (51)
2020 (52)
2019 (50)
2018 (53)
2017 (67)
2016 (61)
2015 (54)
2014 (54)
2013 (56)
2012 (56)
2011 (55)
2010 (53)
2009 (44)
2008 (32)
2007 (40)
2006 (44)
2005 (30)
TPS : TPM 및 파일 가상화를 통한 개인정보보호 자동화 시스템 디자인 및 구현
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 논문지 Vol.13 No.2 2017.04 pp.7-17
본 논문에서는 TPM(Trusted Platform Module) 기반의 개인정보보호 자동화 시스템, TPS(TPM-enhanced Privacy Protection System)를 제안한다. TPS는 클라이언트 내 저장된 문서 중 개인정보를 포함하는 문서를 주기적으로 탐지하고 개인정보가 탐지된 문서를 암호화하여 서버에서 이를 관리하도록 하는데, TPM 기반의 키 관리기법 및 클라이언트 시스템의 무결성 검증을 통해 비정상 상태의 클라이언트에 대한 개인정보 포함 문서의 열람을제한하여 보안성을 높였다. 또한 개인정보가 포함된 문서가 암호화 되어 원격 서버에 저장이 되나, 사용자에게는 일반 문서 접근과 동일한 사용자 인터페이스를 제공하기 위한 VTF(Virtual Trusted File) 인터페이스를 제안하고이를 구현하였다. 이를 통해 TPS는 개인정보 탐지, 암호화, 원격 서버로의 저장까지의 일련의 과정을 자동 수행하도록 하여 사용자 관점에서의 개입 없이 개인정보보호법을 준수를 자동화 하는 시스템을 구현하였다.
In this paper, we propose the TPS (TPM-enhanced Privacy Protection System) which is an automated privacy protection system enhanced with a TPM (Trusted Platform Module). The TPS detects documents including personal information by periodic scanning the disk of clients at regular intervals and encrypts them. Hence, system manages the encrypted documents in the server. In particular, the security of TPS was greatly enhanced by limiting the access of documents including the personal information with regard to the client in an abnormal state through the TPM-based platform verification mechanism of the client system. In addition, we proposed and implemented a VTF (Virtual Trusted File) interface to provide users with the almost identical user interface as general document access even though documents containing personal information are encrypted and stored on the remote server. Consequently, the TPS automates the compliance of the personal information protection acts without additional users’ interventions.
인코딩(encoding)은 컴퓨터에서 사용되는 음성, 영상 및 텍스트 문자를 부호화하는 방법을 가리킨다. 그러므로 특정 데이터를 열람하기 위해서는 해당 인코딩 정보를 알아야하며, 데이터마다 인코딩을 판별해주는 알고리즘들이 존재한다. 하지만 실제 음원이나 문서를 송수신하는 과정에서 패킷 손실이 발생할 수 있으며, 특히 무선 통신망에서패킷 스니핑으로 정보를 가로챌 경우 손실률은 더욱 증가되어 인코딩 기법 판별에 어려움이 발생한다. 본 논문에서는 이러한 오류가 발생한 데이터의 인코딩 기법 판별율을 향상시키기 위해 기존의 문자 인코딩 기법 판별 프로그램인 'uchardet'에 Bit-shift 알고리즘을 적용하여 성능 향상을 이루었다. 알고리즘의 성능 평가를 위해 임의의 한글및 일본어 텍스트 파일에 손실률(loss rate)을 적용하여 부분적으로 데이터가 소실된 인코딩 파일을 생성하여 결과를 비교하였다. 그 결과, 패킷이 손실된 데이터에서 Bit-shift 알고리즘을 적용한 'uchardet-bitshift' 경우 기존의 알고리즘보다 더 나은 성능을 보였다. 한국어 인코딩의 경우 기존의 uchardet는 0.005% 손실률까지 100%의정확도를 보이고 1%보다 높은 손실률에서는 인코딩을 전혀 판별해 내지 못한데 비해, Bit-shift 알고리즘을 적용할 경우 0.05%의 손실률에도 100%의 정확도를 보였으며 그보다 큰 손실률에서도 해당 인코딩을 판별해냈다. 또한 한자어를 많이 포함하는 일본어의 경우 손실률이 높아질수록 중국어 인코딩으로 잘못 판별하는 경향을 보였다.시뮬레이션 분석 결과, Bit shift 알고리즘을 추가하여 기존 인코딩 기법 판별 알고리즘의 개선이 가능하였다.
In computer science, an encoding is a standardization of converting information to one format for audio, video or text. Therefore, the encoding information of the data should be known to open and read it and there are algorithms detecting encoder of the data. However, some informations of data could be disappeared by packet loss when transmitted on network, especially, if the data is snatched by packet sniffing or eavesdropping from wireless communications. In this paper, we improve the performance of encoding detection algorithm of 'uchardet' program for multi-byte encoded data with errors based on bit-shift algorithm. To simulate the performance, we generated Korean and Japanese text data with errors that is removed some random bits at random positions. Then the detection algorithm are tested using the data and 'uchardet-bitshift' showed better performance than 'uchardet'. When Korean texts are used, 'uchardet' could detect perfectly with ≤0.005% errors but it showed 0% detection rate with ≥1% errors while 'uchardet-bitshift' detected perfectly with ≤0.05% errors and it showed correct detection cases with ≥1% errors. Japanese texts with errors tend to report falsely as Chinese encoding because Japanese texts include lots of Chinese characters. As a results, we improved encoding detection algorithms by applying bit shift operation.
치매의 다양한 형태와 알츠하이머병의 효율적이고 정확한 진단은 최신 연구 주제이다. 치매환자의 의학적 치료를 위해 치매와 알츠하이머병의 정확한 실험은 필수적이다. 그러나 전통적인 분류법은 가격이 비싸고 성능이 느리며 재현불가능하다. 그러므로 목표는 뇌 영상 분류를 위한 자동적 컴퓨터 기반 시스템을 재현하는 것이다. 하버드 메디컬학교로부터 T2급 66개의 다운로드된 영상을 사용한다. 이 논문에서 바이오마커로 SMRI 사용을 제안한다. 우선, MRI로부터 특징 추출을 위해 웨이브렛 변환들 중 Daubechies-4의 이차원 이산 웨이브렛 변환 (2-D DWT)를 사용한다. 둘째로 주성분분석 (PCA)은 단지 10개의 특징 절감을 위해 이용한다. 세 번째로 이러한 감소된 특징은 분류를 위해 Bagged Trees 분류기를 이용한다. 6배 교차 검증은 69.7%의 분류 정확도를 보여준다. 게다가Bagged Trees 분류기는 효과적이며 이러한 접근은 실용적으로 유익한 툴이 될 수 있다.
Efficient and precise diagnosis of Alzheimer’s disease (AD) and different types of dementia is a new topic of research. It is essential to have an accurate examination of both of these diseases for their medical treatment. However, the traditional classification has expensive, slow performance, and irreproducible. Therefore, our goal is to present an automatic computer-aided system for brain image classification. We use 66 T2-weighted images downloaded from Harvard Medical School. In this paper, we propose to use SMRI as a biomarker. First we use 2D discrete wavelet transform (2D-DWT) along with Daubechies-4 from wavelet families for feature extraction from MRI. Second, principal component analysis (PCA) is employed for the reduction of the feature to only 10. Third, those reduced feature were fed to Bagged Trees classifier for classification. A 6-fold cross validation (CV) has showed the classification accuracy of 69.7% .Thus, Bagged Trees classifier is effective and this approach can be a beneficial tool in practical.
스마트 환경에서는 센서, 디스플레이, 스마트폰 등 각종 장치들이 존재하며, 이러한 장치들을 이용하여 다양한 콘텐츠가 제공될 수 있다. 그러나 방대한 양의 콘텐츠가 다수의 사용자들에게 제공되고 있지만, 대부분의 환경에서 사용자에 대한 고려가 없거나 위치, 시간 등의 간단한 요소만을 고려하고 있어 사용자를 위한 유의미한 콘텐츠 제공에한계가 있다. 이에 본 논문에서는 사용자에게 맞춤형 콘텐츠를 제공하기 위해 사용자, 장치, 콘텐츠가 가진 상황 정보를 인지하여 콘텐츠를 추천할 수 있는 시스템인 상황인지 기반 콘텐츠 추천 시스템을 제시한다. 상황인지 기반 콘텐츠 추천 시스템은 스마트 환경의 컨텍스트를 추론하고 사용자와 콘텐츠의 정보를 이용하여 사용자의 콘텐츠별 선호도를 산출하고 사용자에게 콘텐츠를 추천한다. 이러한 시스템의 프로세스를 구축하기 위해 도메인 지식을 온톨로지 모델로 구축하고, 콘텐츠 추천 시스템을 설계 및 구현하기 위한 방법을 제시한다. 그리고 부산의 센텀시티를 도메인으로 하여 사례 연구를 진행하며 산출된 0.8730의 평균 절대값 오차를 이용하여 제시한 시스템의 콘텐츠 추천성능의 우수성을 검증하였다.
There are many and various devices like sensors, displays, smart phone, etc. in smart environment. And contents can be provided by using these devices. Vast amounts of contents are provided to users, but in most environments, there are no regard for user or some simple elements like location and time are regarded. So there’s a limit to provide meaningful contents to users. In this paper, I suggest the contents recommendation system that can recommend contents to users by reasoning context of users, devices and contents. The contents recommendation system suggested in this paper recommend the contents by calculating the user preferences using the situation reasoned with the contextual data acquired from various devices and the user profile received from the user directly. To organize this process, the method on how to model ontology with domain knowledge and how to design and develop the contents recommendation system are discussed in this paper. And an application of the contents recommendation system in Centum City, Busan is introduced. Then, the evaluation methods how the contents recommendation system is evaluated are explained. The evaluation result shows that the mean absolute error is 0.8730, which shows the excellent performance of the proposed contents recommendation system.
트랜잭셔널 메모리는 트랜잭션 처리를 위한 병렬 프로그래밍 패러다임을 크게 바꾸었으며, 하드웨어 및 소프트웨어 방식에 따라 STM, HTM, HyTM으로 구분된다. 그러나, 기존 연구들은 모든 워크로드에 대해 획일적인 재시도 정책을 제공하는 문제점이 존재한다. 이러한 문제점을 해결하기 위해, 본 논문에서는 멀티코어 환경에서 샘플링 기반 유연한 재시도 정책을 이용한 하이브리드 트랜잭셔널 메모리 기법을 제안한다. 첫째, 제안하는 기법은 트랜잭션의 특성을 파악하여 HTM 혹은 STM을 선택하여 수행하거나, 블룸필터를 이용하여 동시에 HTM과 STM 을 수행한다. 둘째, 제안하는 기법은 각 워크로드 내의 트랜잭션의 특성을 반영한 유연한 HTM 재시도 정책을 제공한다. 마지막으로 STAMP를 이용한 성능평가를 통해, 제안하는 기법이 기존 연구에 비해 10~20%의 성능 향상이 있음을 보인다.
Transactional Memory (TM) has greatly changed the parallel programming paradigm for transaction processing and is classified into STM, HTM, HyTM according to hardware or software frameworks. However, the existing studies have a problem that they provide static retry policy for all workloads. To solve the problems, we propose an hybrid transactional memory scheme using sampling-based adaptive retry policy in multi-core environment. First, the proposed scheme determines whether to use STM or HTM according to the characteristic of a transaction. Otherwise, it executes HTM and STM concurrently by using a bloom filter. Second, the proposed scheme provides adaptive retry policy for HTM according to the characteristic of transactions in each workload. Finally, through the experimental performance evaluation using STAMP, the proposed scheme shows 10~20% better performance than the existing schemes.
본 연구는 한국신용 카드시장의 사용현황 및 여건을 분석하여, 중국신용카드시장의 추이를 측정할 수 있는 알고리즘개발을 통해 미래예측을 하고자한다. 한국의 신용카드 현황을 분석한 결과 개인소득증가와 신용카드사용과의 상관관계는 유의적이지 않게 나타났으며, 1인당 카드보유 수량과 신용카드사용액수는 상관관계가 있음으로 나타나고 있다. 그러나 중국 신용카드 시장에서는 개인의 소득증가가 신용카드 이용액에 영향을 미치고 있음으로 분석되었고, 1인당 카드보유수량과 신용카드사용액의 상관관계는 유의적으로 분석되었다. 또한 중국신용카드 시장의 미래 경제추이도 분석은 외부환경에서 오는 제약조건이 있는 경우와 제약조건이 없는 경우에 따른 미래예측 알고리즘을 개발하여 1인당 신용카드 소지량과 신용카드 사용액에 대한 미래예측 측정함수를 생성하였다. 본 연구의 활용방안은 중국의 경제시장의 정보미공개로 정보공유가 활발히 이루어지고 있지 않는 중국신용카드시장현황을 본 미래예측 연구를 통해 글로벌 경제시장을 예측할 수 있는 신용카드시장의 발전적 전략을 제시할 수 있을 것으로 기대한다.
In this research, we analyze the usage and conditions of the credit card market in Korea and try to predict future by developing algorithms that can measure the transition of Chinese credit card market. As a result of analyzing the current status of Korean credit cards, the correlation between the increase in personal income and the use of credit card appears is not significant, and there is a correlation between the amount of card holdings per person and the amount of credit cards used. However, in the credit card market in China, it is analyzed that the increase in personal income affects the amount of credit card usage, and the correlation between the amount of card-holding per person and the amount of credit card usage is significantly analyzed. Also, the analysis of the future economic trend of the credit card market in China has developed a future prediction algorithm according to the constraint condition and the constraint condition in the external environment. We generated future forecasting function for credit card holdings and credit card usage per person. This study suggests the development strategies of the credit card market that can predict the global economic market through the future prediction study of the current status of the Chinese credit card market..
현재 전 세계적으로 발생하는 테러나 대형사건들은 사람들의 삶에 나쁜 영향을 미치고 있다. 이러한 사건사고들을예방하고 방지하기 위해서 능동적인 감시로 많이 활용되는 것이 CCTV이다. CCTV를 통해 사람들의 행동패턴들을분석하고 다양한 인물들을 주시한다. 특히 CCTV는 대부분이 음성을 포함하지 않기 때문에 비언어적 커뮤니케이션요소나 행동들을 통해 인물들을 분석하게 된다. 이러한 이유로 우리는 다양한 인물들의 비언어적 커뮤니케이션 요소나 행동들을 분석하기 위한 기초적인 연구방법으로 영화나 TV에서 등장하는 인물들을 분석하고자 한다. 영화나 TV 드라마 및 다양한 영상매체에서 등장하는 인물들은 영상의 전체 스토리 및 캐릭터의 기본적인 설정에 맞추어 배우들이 성격을 부여하여 캐릭터들을 표현하고 있다. 이러한 캐릭터들의 다양한 성격 표현은 배우들의 연기능력에 따라매칭되는 정도가 달리 나타날 수 있다. 그러나 대부분의 영화나 드라마의 주인공들은 많은 정보들을 기반으로 연기경험과 표현능력이 높은 배우들이 캐릭터들을 표현하기 때문에 일반적인 사람들의 성격들을 포함한 다양한 커뮤니케이션 요소들을 표현하고 있다. 그렇기 때문에 본 연구에서는 영화에서 동일인물이 표현한 다양한 캐릭터들의 성격별 비언어적 커뮤니케이션 요소와 시각적 스토리텔링 요소를 분석하고자한다. 이를 통해 인물의 성격별 비언어적 커뮤니케이션 요소의 특징들을 도출하고 향후 추가적으로 실제 인물들의 비언어적 커뮤니케이션 요소들을 분석하고, 이 지식 기반으로 다양한 인물 행동분석을 수행하는 것을 목표로 한다.
Nowadays, global outbreaks of terrorism and other similar events are adversely affecting the lives of people. Active surveillance using CCTV cameras can be used to prevent such incidents. Through CCTV, one can analyze patterns of people's behavior and monitor their activities. In particular, most CCTVs do not include facility to capture speech, so they analyze characters through nonverbal communication elements and behaviors. For this reason, we want to analyze characters in movies and TV as basic research methods for analyzing nonverbal communication elements and behaviors of various characters. Characters appearing in movies, TV dramas and various visual media are represented by the character of the actors according to the overall story of the video and the basic setting of the character. The various personality expressions of these characters can be different according to the acting ability of the actors. However, the main characters of most movies and dramas express various communication elements including the character of ordinary people because actors with high acting experience and expressive ability can express characters based on a lot of information. Therefore, in this study, we will try to analyze non-verbal communication elements and visual storytelling factors by studying various characters expressed by the same person in movies. Through this, we aim to derive characteristics of non-verbal communication elements, analyze non-verbal communication elements of additional characters in real life scenarios, and use the knowledge to perform human behavior analysis.
컴퓨터 비전에서 사람을 재 식별하는 것은 지능형 감시 시스템 만드는데 있어 어려운 작업 중 하나이다. 사람 재 식별 시스템의 최신 기술은 여전히 HOG, SIFT, SURF, LBP 와 같은 전통적인 피처추출에 의존하고 있다. 본 연구에서는 감시영상에서 사람 식별을 위한 CNN(Convolution Neural Network)을 활용방안에 대해 제시한다. 우선CNN모델을 이용하여 re-id 데이터 셋을 학습한다. 그 다음 보행자 이미지를 상반신 하반신 두 부분으로 나누어 윗옷과 바지를 감시한다. 그리고 CNN으로 학습한 모델을 사용하여 두 부분의 특징을 추출한다. 유사도는 선택된 이미지와 데이터 셋 안의 이미지들과의 유클리드 거리를 활용하여 계산한다. ETHZ, CUHK, Market 데이터 셋을사용한 최신기술과 비교하였을 때 리콜값과 CMC(Cumulative Match Characteristic) 값에서 더 높은 성능으로나온 것을 확인 할 수 있다.
In computer vision, person re-identification is a challenging task in the context of making intelligent surveillance system. State-of-the-art techniques in person re-identification systems still rely on traditional features extraction such as HOG, SIFT, SURF, and LBP etc. In this study we present convolution neural network (CNN) features to represent persons in surveillance streams. Firstly, we trained a CNN model using person re-id dataset. Secondly, we divide pedestrian images into upper and lower body parts, keeping in view the format of clothing used to cover upper and lower parts. Further, we have extracted CNN features for both parts using the trained model. Similarity score is computed as Euclidean distance between query image and other images in the dataset. We succeeded to achieve higher precision scores on various recall levels, as well as higher Cumulative Match Characteristic (CMC) performance scores compared to other state-of-the-art techniques on ETHZ, CUHK, and Market datasets.
본 논문에서는 Word2vec을 이용한 새로운 그래프 기반 감성사전 구축 방법을 제안한다. 기존의 연구에서 단어 그래프에서의 변(edge)의 가중치를 계산하기 위하여 널리 사용해 오던 PMI(Point-wise Mutual Information)는문장의 맥락이나 문맥 상 의미를 통한 단어 간의 관계를 전혀 고려하지 않았다. 본 논문에서는 단어의 의미와 문장에서의 맥락을 고려하여 단어를 벡터로 표현하는 Word2vec 기법에 기반한 변의 가중치 계산 방법을 제안한다. 또한, 새로운 가중치 계산 방법이 감성 사전의 정확도를 개선하는 것을 실증하기 위하여 10,000건의 실제 영화평을포함하는 데이터를 기반으로 두 가지 LP(Label Propagation) 알고리즘에 새로운 Word2vec 가중치를 적용하여감성사전을 구축하는 실험을 실행하였다. 이 실험 결과 Word2vec 가중치 계산식을 적용하여 구축한 감성사전을 이용하여 새로운 문장에 대한 감성분석을 하였을 경우 기본의 방법보다 평균적으로 1.5%의 정확도가 향상됨을 알 수 있었다.
In this paper we propose a new method for constructing a graph based sentiment dictionary using Word2vec and label propagation. The similarity calculation method used in the previous research to calculate the weight of the edges in a word graph, PMI(Point-wise Mutual Information), does not consider the relationships among the words by the context and the contextual meaning of a sentence for calculating the weights of the edges in a word graph. To improve the accuracy of the weights, we propose a new method using Word2vec, that vectorizes words by considering the meaning of the words and the context of the sentence containing the words. We confirmed the improvement of the performance of our proposed method through the experiments with actual clinical data. In the experiment of constructing sentiment dictionaries based on 10,000 movie reviews, our methods combining Word2vec weight calculation method and label propagation algorithms produced the sentiment dictionaries, which predict new text data with 1.5% more accuracy than the conventional method using PMI.
최근 자연어 처리 분야에서 단어의 모호성을 해소하기 위해서 다양한 기계 학습 방법이 적용되고 있다. 지도 학습에사용되는 데이터는 정답을 부착하기 위해 많은 비용과 시간이 필요하므로 최근 연구들은 비지도 학습의 성능을 높이기 위한 노력을 지속적으로 시도하고 있다. 단어 모호성 해소(word sense disambiguation)를 위한 비지도 학습연구는 지식 기반(knowledge base)를 이용한 방법들이 주목받고 있다. 이 방법은 학습 데이터 없이 지식 기반의정보을 이용하여 문장 내에서 모호성을 가지는 단어의 의미를 결정한다. 지식 기반을 이용한 방법에는 그래프 기반방식과 유사도 기반 방법이 대표적이다. 그래프 기반 방법은 모호성을 가지는 단어와 그 단어가 가지는 다양한 의미들의 집합 간의 모든 경로에 대한 의미 그래프를 구축한다는 장점이 있지만 불필요한 의미 경로가 추가되어 오류를증가시킨다는 단점이 있다. 이러한 문제를 해결하기 위해 본 논문에서는 그래프 구축을 위해 불필요한 간선들을 배제하면서 반복적으로 그래프를 재구축하는 모델을 제안한다. 또한, 구축된 의미 그래프에서 더욱 정확한 의미를 예측하기 위해 하이브리드 유사도 예측 모델을 적용한다. 또한 제안된 모델은 다국어 어휘 의미망 사전인 BabelNet 을 사용하기 때문에 특정 언어뿐만 아니라 다양한 언어에도 적용 가능하다.
Current word sense disambiguation techniques employ various machine learning-based methods. Various approaches have been proposed to address this problem, including the knowledge base approach. This approach defines the sense of an ambiguous word in accordance with knowledge base information with no training corpus. In unsupervised learning techniques that use a knowledge base approach, graph-based and similarity-based methods have been the main research areas. The graph-based method has the advantage of constructing a semantic graph that delineates all paths between different senses that an ambiguous word may have. However, unnecessary semantic paths may be introduced, thereby increasing the risk of errors. To solve this problem and construct a fine-grained graph, in this paper, we propose a model that iteratively constructs the graph while eliminating unnecessary nodes and edges, i.e., senses and semantic paths. The hybrid similarity estimation model was applied to estimate a more accurate sense in the constructed semantic graph. Because the proposed model uses BabelNet, a multilingual lexical knowledge base, the model is not limited to a specific language.
0개의 논문이 장바구니에 담겼습니다.
선택하신 파일을 압축중입니다.
잠시만 기다려 주십시오.