2026 (10)
2025 (62)
2024 (55)
2023 (53)
2022 (56)
2021 (51)
2020 (52)
2019 (50)
2018 (53)
2017 (67)
2016 (61)
2015 (54)
2014 (54)
2013 (56)
2012 (56)
2011 (55)
2010 (53)
2009 (44)
2008 (32)
2007 (40)
2006 (44)
2005 (30)
세계적으로 ICT(Information & Communication Technology)를 통한 비용절감 및 업무혁신이 이루어지면서 클라우드 컴퓨팅(이하 클라우드) 시장이 급성장하고 있다. 이러한 패러다임에 맞춰 우리나라는 다양한 연구를 통해 공공부문, 국방 분야 등 다양한 분야에 클라우드를 도입시키기 위해 노력하고 있다. 특히 국방 분야에서는 2015년 육·해·공·군 전산소를 통합하여 국방통합데이터센터(DIDC, Defense Integrated Data Center)를 설립하였으며, 센터 내 일부 시스템을 대상으로 IaaS(Infrastructure as a Service) 형태의 클라우드 서비스를 제공하고 있다. 국방통합데이터센터 및 추후 도입될 국방 분야의 다양한 클라우드 시스템에서 네트워크 지연, 시스템 자원 고장 등 과 같은 시스템 장애가 발생하게 되면 전장의 결과와 직결되기 때문에 국방 부문의 클라우드 시스템에 가용성을 보 장하는 것은 중요한 이슈라 할 수 있다. 그러나 국방 클라우드의 모든 시스템을 대상으로 최고 수준의 가용성을 확 보하는 것은 비효율적일 수 있으며, 클라우드 시스템 구축으로 얻을 수 있었던 효율성이 감소할 수 있다. 본 논문에 서는 국방 클라우드 시스템의 가용성 확보 수준을 단계별로 분류 및 정의하고, 각 가용성 확보 수준에 따른 Erasure Coding 및 장애 허용 시스템, 재난 복구 시스템 기술 도입 전략을 제안한다.
Cloud computing markets are rapidly growing as cost savings and business innovation are being carried out through ICT worldwide. In line with this paradigm, the nation is striving to introduce cloud computing in various areas, including the public sector and defense sector, through various research. In the defense sector, DIDC was established in 2015 by integrating military, naval, air and military computing centers, and it provides cloud services in the form of IaaS to some systems in the center. In DIDC and various future cloud defense systems, It is an important issue to ensure availability in cloud defense systems in the defense sector because system failures such as network delays and system resource failures are directly linked to the results of battlefields. However, ensuring the highest levels of availability for all systems in the defense cloud can be inefficient, and the efficiency that can be gained from deploying a cloud system can be reduced. In this paper, we classify and define the level of availability of defense cloud systems step by step, and propose the strategy of introducing Erasure coding and failure acceptance systems, and disaster recovery system technology according to each level of availability acquisition.
EEG 기반 감정인식을 위한 주석 레이블링과 EEG Topography 레이블링 기법의 비교 고찰
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 논문지 Vol.15 No.3 2019.06 pp.16-24
최근 뇌파를 기반으로 한 인간의 감정을 인식하는 연구가 인간-로봇 상호작용 분야에서 활발히 진행되고 있다. 본 논 문에서는 MAHNOB-HCI에서 사용된 자기평가와 주석 레이블링 방법과는 다른, 이미지 기반의 뇌파 Topography 를 이용한 레이블링을 통해 감정을 평가하는 방법을 제안한다. 제안한 방법은 뇌파 신호를 Topography의 이미지로 변환하여 기계학습 모델을 학습하고 이를 기반으로 Valence 기반의 감정을 평가한다. 제안한 방법은 레이블링 과정 을 자동화하여 지연 시간을 없애고 객관적인 레이블링을 제공할 수 있다. MAHNOB-HCI 데이터베이스를 적용한 실험에서 SVM, kNN의 기계학습 모델을 학습하여 주석 레이블링과 성능 비교를 하였으며, 제안 방법의 감정인식 정확도를 SVM에서 54.2%, kNN에서 57.7%로 확인하였다.
Recently, research on emotion recognition based on EEG has attracted great interest from humanrobot interaction field. In this paper, we propose a method of labeling using image-based EEG topography instead of evaluating emotions through self-assessment and annotation labeling methods used in MAHNOB HCI. The proposed method evaluates the emotion by machine learning model that learned EEG signal transformed into topographical image. In the experiments using MAHNOB-HCI database, we compared the performance of training EEG topography labeling models of SVM and kNN. The accuracy of the proposed method was 54.2% in SVM and 57.7% in kNN.
지자기 벡터는 센서가 바라보고 있는 방향에 따라 그 값이 달라지는 특성이 있다. 본 논문에서는 그런 문제를 최소 화하여 지자기 기반 실내 위치 추정에 사용될 수 있도록 지자기 벡터 보정법을 제안한다. 지자기 기반 실내 위치 추 정에서 사용되는 핑거프린팅 기법은 자기장 지도와 현재 위치에서의 자기장 값을 매칭하여 위치를 추정해낸다. 이 때, 자기장 센서는 사용자의 이동 방향에 따라 읽어 들이는 자기장 벡터 값이 달라지기 때문에 위치 추정 정확도가 낮아진다. 이를 해결하기 위해 많은 연구들은 자기장 벡터 크기를 사용하지만, 이는 지문의 고유성을 감소시킨다. 따라서 본 논문에서는 지문의 고유성을 유지할 수 있는 자기장 벡터를 그대로 사용하되, 벡터 크기처럼 사용자의 이 동방향에 영향을 받지 않도록 벡터 값을 보정하는 방법을 제안한다. 임의의 방향으로 걸어본 결과, 본 연구에서 제 안된 보정법을 사용하면 자기장 지도와의 매칭 정확도가 높아지는 것을 확인하였다.
Magnetic sensors have the disadvantage that their vector values differ depending on the direction. In this paper, we propose a magnetic vector calibration method for geomagnetic-based indoor localization estimates. The fingerprinting technique used in geomagnetic-based indoor localization the position by matching the magnetic field map and the magnetic sensor value. However, since the moving direction of the current user may be different from the moving direction of the person who creates the magnetic field map at the collection time, the sampled magnetic vector may have different values from the vector values recorded in the field map. This may substantially lower the positioning accuracy. To avoid this problem, the existing studies use only the magnitude of magnetic vector, but this reduces the uniqueness of the fingerprint, which may also degrade the positioning accuracy. In this paper we propose a vector calibration algorithm which can adjust the sampled magnetic vector values to the vector direction of the magnetic field map by using the parametric equation of a circle. This can minimize the inaccuracy caused by the direction mismatch.
최근 클라우드 컴퓨팅이 확산되면서 주목 받고 있는 기술 중 하나는 가상화(virtualizaion) 기술이다. 가상화 기술 을 이용하여 시스템을 구축할 경우 하나의 호스트 운영체제에서 복수개의 운영체제를 구동시킬 수 있으며 효율적인 컴퓨팅 자원의 관리를 용이하게 한다는 장점이 있지만 하이퍼바이저(Hypervisor) 위에서 구동하는 운영체제들이 많아질수록 가상화 시스템의 전반적인 성능을 측정하는 것이 필요하며 이는 중요한 기술로 떠오르고 있다. 본 논문 에서는 가상화 시스템의 효율적인 성능측정을 위해 기존 프로파일링 도구의 주요 기능을 분석하여 가상화 시스템에 서 발생할 수 있는 이벤트에 대하여 모니터링 도구들이 수행할 수 있는 프로파일링 커버리지를 측정하고 분류하였으 며, 더 나아가 모니터링을 수행하는 원격 시스템에서 수신 된 정보에 따라 가상화 시스템에 성능측정이 필요할 경우 적합한 프로파일링 도구를 게스트 시스템에 적재시켜 성능측정을 할 수 있도록 하는 프레임워크를 연구하였다.
Virtualization technology is one of the technologies that have been attracting attention as cloud computing spreads recently. When a system is constructed using virtualization technology, mutiple operation systems can be operated in a single host operating system, thereby facilitating efficient management of computing resources. As more and more operating systems are running on the hypervisor, it is important to measure the overall performance of the virtualization system and this is becoming an important technology. In this paper, we analyze the main functions of the existing profiling tools to measure the performance of the virtualization system, and measure and classify the profiling coverage that the monitoring tools can perform for events that may occur in the virtualization system. In addition, we have studied a framework that enables performance measure-ment by loading appropriate profiling tools into the guest system when performance measurement is required for the virtualization system according to the information received from the remote system performing the monitoring.
알츠하이머 병의 효과적이고 정확한 진단은 현재 중요한 관심사이다. 알츠하이머 병 (Alzheimer 's disease, AD) 은 기억력과 행동 또는 행동과 같은 뇌의 작용 기능에 영향을 미치며 결국 노인들에게 치매를 유발하는 신경 전달 물질, 뇌 세포 및 뇌 신경을 주로 공격하는 신경퇴행성 뇌무질서가 높게 진행된다. 그것은 치료가 불가능한 심한 신 경학적 뇌 질환이지만, 알츠하이머 병의 조기 발견은 적절한 치료와 뇌 조직 손상 예방에 도움이 될 수 있다. 알츠하 이머 병의 탐지 및 분류는 어렵다. 이 논문에서는 뇌 MRI 데이터 분석을 이용한 새로운 알츠하이머 병 진단 및 분 류 모델을 제안한다. 고해상도 3 차원 sMRI 이미지는 100 명의 AD 환자와 316 명의 정상인 (HC)으로부터 수집 되었다. 대뇌 피질의 세션화를 위해 자동화 된 Freesurfer 소프트웨어 패키지를 사용한다. 따라서 총 66 개의 대 뇌 피질의 뇌 세분화 특징이 자동으로 추출한다. 그 후, 주성분 분석 (PCA)이 차원 감소 목적으로 사용되고 SVM (Support Vector Machine) 및 FNN (Feed Forward Neural Network)을 적용하여 분류 프로세스를 수행한 다. OASIS 데이터셋에 대한 실험은 특징 선택 접근법을 사용하는 SVM이 AD 및 HC 대상의 분류 정확도를 크게 향상시킬 수 있음을 보여준다.
Effective and accurate diagnosis of Alzheimer’s disease is currently of significant interest. Alzheimer’s disease (AD) is a highly progressive, neurodegenerative brain disorderliness that mainly attacks neurotransmitters, brain cells and brain nerves, affecting the working functions of brain such as its memory and actions or behaviours, finally causing dementia on ageing people. It is a severe neurological brain disorder, which is not curable, but earlier detection of Alzheimer’s disease can be helpful for proper treatment and prevent brain tissue damage. Detection and classification of Alzheimer’s disease are challenging. In this paper, a new Alzheimer’s disease detection and classification model using brain MRI data analysis are presented. High-resolution three-dimensional sMRI images were acquired from 100 AD subjects and 316 Healthy controls (HC). To segment the sub-cortical brain, a fully automated Freesurfer software package is calculated. Finally, 66 sub-cortical brain segmentation features are automatically extracted. After that, Principal component analysis (PCA) is used for dimensionality reduction purpose and a classification process is performed by applying Support vector machine (SVM) and Feed Forward neural network (FNN). Experimental results on the OASIS dataset show that SVM with feature selection approach could significantly improve classification accuracy of AD and HC subjects.
본 논문에서는 전술 엣지 클라우드간 VM 마이그레이션을 수행하는 환경에서, 네트워크 자원을 효율적으로 사용할 수 있는 PMIPv6 기반의 VM 이동성 관리 기법을 제안한다. 제안하는 기법은 VM 마이그레이션 절차와 이동성 지 원 절차를 긴밀하게 연계함으로써 VM에 대한 초기 네트워크 설정부터 마이그레이션 준비, 진행 및 완료 단계까지 각 단계에서 필요한 네트워크 연결성 설정 및 재구성 절차를 수행하여 서비스 중단시간을 최소화 하면서 네트워크 내 시그널링 교환을 최소화하고자 하였다.
In this paper, we propose PMIPv6 based VM network connection management scheme with considering efficiency of network resources when the VM migration is operating between the tactical edge clouds. The proposed scheme closely links the VM migration procedure with the mobility support procedure to minimize the service downtime with minimum signaling exchanges by performing network connection setup and reconfiguration procedures at each stage from initial network setup to VM preparation, during migration process and completion.
워드 임베딩은 자연어처리 분야에서 중요한 기술로, word2vec이 대표적인 알고리즘으로 알려져 있다. word2vec 을 비롯한 사전기반의 워드 임베딩 알고리즘들은 단어의 형태소특징을 사용하지 않는 방식, 즉 단어를 하나의 개체 로 사용하기 때문에 학습에 사용된 단어에 대해서만 단어 벡터를 만들 수 있는 한계를 가지고 있다. FastText는 이 문제를 해결하기 위해 제안된 알고리즘으로, 부속단어들의 조합으로 워드 임베딩을 하며, 이에 따라 학습에 사용된 적이 없는 단어에 대해서도 단어 벡터를 만들 수 있다. FastText는 형태소적 특징을 사용하기 때문에, word2vec 방식에 비하여 구문적 부분에서는 강점이 있고, 의미적 부분에서는 약점이 있다. 이 논문에서는 부속단어의 역문서 빈도를 이용하여 FastText를 개선하는 방법을 제시하며, FastText가 가지고 있는 의미적 부분에서의 약점을 극복 하고자 한다. 실험결과는 구문적 부분에서의 손실이 거의 없이 의미적부분에서 개선이 있었음을 보여준다. 또한 이 방법은 부속단어를 이용한 워드 임베딩에 모두 적용할 수 있다. 중의어를 구별하여 워드 임베딩하기 위해 고안된 확 률적 FastText에도 역문서 빈도를 적용 실험하고, 결과를 통해 성능이 향상되었음을 확인하고자 한다.
Word Embedding is important in natural language processing, and word2vec is known as a representative algorithm. Word2vec and many other dictionary based word-imbedding algorithms have limitations in creating word vectors only for words used in learning, because they does not use the words’ morphological feature. FastText is a proposed algorithm to solve this problem, word embedding in a combination of sub-words, thus creating a word vector for words that have never been used in learning. Because FastText uses morphological features, it has strengths in syntactic and weekness in semantic compared to word2vec. In this paper, the method of improving FastText is presented by using the inverse document frequency of the subword, and was intended to overcome the weakness in the semantic part of FastText. The results of the experiment show that there has been improvement in semantic tests with little loss in syntactic tests. this method can be applied to any word embedding algorithms using subwords. The probabilistic FastText designed to distinguish multi-sense words and was also tested with the inverse document frequency, and the results confirmed that the performance is improved.
본 논문에서는 GPS위성을 이용하는 무인 비행체분야 중 초광각 영상렌즈를 탑재한 드론의 전방위 영상 모니터링을 위해 초광각렌즈의 왜곡영상을 보정하고 분할하여 주변의 상황정보와 객체의 근접정보를 정확하게 검출하기 위한 알고리즘을 제안하고 변환 테스트와 실증 테스트를 통해 구현하였다. 여기서는 사전 패턴작업을 통해 초광각 렌즈의 왜곡보정계수를 추출하고 360˚전방위 영상을 좌표계 변환을 통해 직교 좌표계로 변화하는 작업을 수행하였다. 또한 주변 상황에 대한 정보취득을 위해 방사왜곡 보정을 한 5분할 영상으로 분할하여 테스트하였고, 최종적으로 목표물 의 좌표에 기반한 줌(Zoom) 촬영을 통해 객체의 상태정보를 제공하는 시스템으로 구현하였다. 향후에는 위치기반 탐색기술과의 융합을 통해 영상의 기준점 패치 및 보정점 정합기술을 통해 세밀한 영상정보를 제공하고 분석하는 연 구를 진행하거나 영상 이미지 데이터 정합기술을 활용한 지상 좌표계와 GPS 좌표계, 영상좌표계 간의 Mapping과 관련한 절대 좌표점 산출연구가 필요할 것이다.
This paper is for omni-directional image monitoring using drones equipped with GPS and super wide angle image lens. It proposes an algorithm that corrects and separates distorted images of super-wide-angle lens and accurately detects the surrounding information and proximity information of the object, and implements it through conversion test and empirical test. In this case, the distortion correction coefficient of the ultra-wide-angle lens was extracted by the pre-patterning operation and the 360° omni-directional image was transformed into the orthogonal coordinate system through the coordinate system transformation. Finally, the location information of the object is provided based on the target GPS coordinates and the state information of the object is imaged via the zoom camera. In the future, it is necessary to provide detailed image information such as reference point patch and correction point matching technique through location based search technology and fusion research. In the future, it is necessary to provide detailed image information such as reference point patch and correction point matching technique through location based search technology and fusion research.
0개의 논문이 장바구니에 담겼습니다.
선택하신 파일을 압축중입니다.
잠시만 기다려 주십시오.