2026 (10)
2025 (62)
2024 (55)
2023 (53)
2022 (56)
2021 (51)
2020 (52)
2019 (50)
2018 (53)
2017 (67)
2016 (61)
2015 (54)
2014 (54)
2013 (56)
2012 (56)
2011 (55)
2010 (53)
2009 (44)
2008 (32)
2007 (40)
2006 (44)
2005 (30)
최근 인공지능 기술을 활용한 다양한 문화 예술 콘텐츠 창작 활동이 점점 확산되고 있다. 그중 노래의 가사를 생성 하는 기존 자연어처리 분야에서는 압운(Rhyme)을 통해 가사다운 문장을 생성하는 연구에 집중하였다. 그러나 단 순히 압운만을 고려하여 가사를 생성한다면, 뮤지컬에서 사용되는 노래의 경우 극 중 캐릭터 성향이나 상황을 고려 하지 못하여 극의 흐름을 놓칠 수 있다. 본 논문에서는 뮤지컬 극 중 캐릭터의 MBTI(Myers-Briggs Type Indicator)성향에 맞는 GPT-2(Generative Pre-trained Transformer-2) 기반 뮤지컬 가사 생성 시스템을 제 안한다. 극 중 캐릭터 성향을 분석하기 위해 MBTI를 활용하였으며, 캐릭터 MBTI성향에 맞는 노래 플레이리스트 를 찾아 학습 데이터를 자동으로 생성한 뒤 GPT-2 모델을 학습시키고 분위기에 맞는 뮤지컬 가사를 생성한다. 본 논문은 MBTI성향별 연관된 노래 검색 키워드와 가사 생성에 적합한 GPT-2 모델의 하이퍼파라미터 값을 제안하여 캐릭터 성향 및 극 중 분위기에 어울리는 뮤지컬 가사를 생성해 낼 수 있음을 확인하였다.
Recently, various cultural and artistic content using AI(Artificial Intelligence) technology have been spreading. In the field of natural language processing that write lyrics for songs, a lot of research has been focused on how to create lyric-like sentences through using rhyme. However, if the lyrics are created by simply considering the rhyme, the song in the musical may be poor at telling the mood on the flow of the play because it can not reflect the characters or the situation in the play. In this paper, we propose a GPT-2(Generative Pre-trained Transformer-2)-based musical lyrics generation system that fits the MBTI(Myers-Briggs Type Indicator) of characters in musical plays. Character tendency in the play is analyzed using MBTI, and song playlist that match the character MBTI are collected to generate learning data, and musical lyrics that match the character’s tendency are generated through the GPT-2 algorithm based on the learned model. In this paper, it was shown that it is possible to generate musical lyrics suitable for character tendency and atmosphere in the play by proposing the relevant song search keywords for each MBTI and hyper-parameter values of the GPT-2 model suitable for lyrics generation.
안정적인 멀티 프라이빗 클라우드 환경을 지원하기 위한 공통 운영 리소스 관리 기법
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 논문지 Vol.18 No.3 2022.06 pp.17-27
최근 클라우드 플랫폼은 클라우드 플랫폼의 운영 안정성 증대 및 특화 기능 활용을 위한 멀티 프라이빗 클라우드 환 경으로 변화하고 있다. 그러나 기존에 제시된 연구들은 퍼블릭 클라우드를 활용하거나 또는 단일 프라이빗 클라우드 환경의 운영에 초점이 맞추어져 있다. 즉, 멀티 프라이빗 클라우드 환경에서 운영 리소스 관리를 지원하기 위한 기 법 및 체계적인 관리 아키텍처가 부족하다. 따라서 멀티 프라이빗 클라우드 환경의 도입을 촉진시키고 운영의 효율 성을 높이기 위한 연구가 필요하다. 본 논문에서는 멀티 프라이빗 클라우드 운영의 안정성 확보 및 업무 생산성을 증대하는 방안으로 공통 운영 리소스를 관리하는 프레임워크 구조를 제시하였고, 이 중 각 공통 리소스 관리에 적용 할 수 있는 로그 기반의 지원 구조와 이를 활용하는 기법에 초점을 두었다. 제시한 기법은 멀티 프라이빗 클라우드 의 공통 리소스를 관리하기 위해 클라우드 로그를 분석한 통합 로그 구조를 제시한다. 제시한 공통 리소스 관리를 지원하는 시스템은 오픈소스를 활용해 구현함으로써 실제 적용 가능함을 확인하였다. 본 논문에서 제시한 공통 리소 스 관리 기법은 다른 유형을 갖는 프라이빗 클라우드 플랫폼으로 구성된 멀티 프라이빗 클라우드 환경의 통합 관리 에 적용될 수 있다. 또한 제시된 구조에 기반하여 다양한 오픈소스를 적용한 멀티 프라이빗 클라우드 시스템 개발에 대한 템플릿으로 활용될 것이다.
Recently, the cloud platform is changed into a multi private cloud environment to increase the operational stability of the cloud platform and specialized functions. However, existing research focused on utilizing public clouds or operating a single private cloud environment. In other words, there is lack of methods and systematic management architecture to support operational resource management in a multi private cloud environment. Therefore, we need research to accelerate the adoption of multi private cloud environments and increase operational efficiency. In this paper, a framework structure for managing common operational resources is presented as a way to guarantee the stability of multi-private cloud operation and increase work productivity. Among them, we focused on the log-based support mechanism applicable to each common resource management and the technique to utilize it. The proposed method presents an integrated log structure that analyzes cloud logs to manage common resources of multi private clouds. The proposed method for common resource management is implemented using open source. Through this, it is confirmed that the proposed technique can be applied in practice. The method presented in this paper can be applied to the integrated management of multi private cloud environments which consist of private cloud platforms with different types. It will also be used as a template for the development of multi private cloud systems with various open sources based on the proposed architecture.
본 논문에서는 지방간 질환의 자동 진단 및 치료에 활용 가능한 비침습적 평가 기준 제공을 위해 동일 환자의 시간 차 간 CT 영상의 분할 및 강체 정합 기법을 제안한다. 본 제안 방법은 다음과 같은 네 단계로 구성된다. 첫 번째, 환자의 조영 전 CT 영상에서는 간에 해당하는 영역을, 조영 후 CT 영상에서는 간과 혈관을 분할한다. 두 번째, CPD 알고리즘을 사용하여 조영 전, 후 간 영역 간의 전역적 정렬을 수행한다. 세 번째, 복셀 기반의 정밀 정합을 수행한다. 이 때, 속도 향상을 위해 파웰 최적화 방법을 이용한다. 마지막으로 지방간 측정을 위해 정합이 완료된 간 CT 영상에서 평균 HU 값을 계산한다. 실험 결과, 평균 정합 오차는 4.48mm로 나타났으며 본 제안 방법은 지 방간 자동 진단에 유용하게 사용될 수 있음을 확인했다.
In this paper, we propose a liver segmentation and rigid registration method to provide non-invasive evaluation criteria that can be used for automatic diagnosis and treatment of fatty liver disease. This proposed method consists of the following four steps. First, we perform liver segmentation with the pre-contrast CT image, and the liver and blood vessels are segmented in the portal phase CT image. Second, by using the CPD algorithm, we perform global alignment between the liver regions of two sequences. Third, we perform voxel-based fine registration. In this case, we use the Powell's method to improve the speed of registration. Finally, for fat volume measurement, we calculate average HU value from the liver CT image. As a result of the experiment, average registration error was 4.48mm and this method can be useful for automatic diagnosis of fatty liver.
LOD(Linked Open Data) 클라우드는 시멘틱 웹 구현 프로젝트이다. 여러 참여기관들은 특정 개체에 대하여 RDF(Resource Description Framework) 모델에 기반하여 다양한 관점에서 기술한 내용을 LOD로 구축하여 공개한다. 본 논문에서는 현재 LOD 클라우드에서의 지식확장이 <owl:sameAs>를 이용한 직접연결에 국한함에 따 른 연결성 확충 한계를 극복하는 방안으로 LOD들이 연결정책을 수립, 공개할 것을 제안한다. 이를 통하여 대량의 직접연결 RDF 트리플 운영부담을 제거하고 검색결과의 적시성 확보가 가능하여진다. 본 논문에서는 연결정책 명세 를 위한 어휘집을 제안하였으며 이러한 연결정책 운영의 적절성을 확인하기 위하여 연결정책기반 지식확장검색 (Link Policy based Knowledge Expanding Search: LP-KES) 시스템을 구현하고 그 실행결과를 분석하였 다. 분석결과 주어개체 동일수준을 0.9와 0.8 사이로 설정할 경우 충분한 확장성과 신뢰성을 확보할 수 있음을 확 인하였다.
The LOD(Linked Open Data) cloud is the implementation project of semantic web. Diverse participants describe facts about a specific entity based on their diverse viewpoints and constructs LODs and open them. This research advocates that LODs establish and publish their own link policies. It will overcome the connectivity insufficiencies in today’s LOD cloud because its knowledge expansions have been restricted only on to the direct link RDF triples including <owl:sameAs> as predicate. Utilizing the link policies, burdens on maintaining enormous volume of direct link RDF triples will disappear and timeliness of searching results will be ensured. This paper suggested vocabulary set for specifying link policies and implemented LP-KES(Link Policy based Knowledge Expanding Search) to assure the effectiveness of the link policies. We found out that LP-KES guaranteed sufficient expansion and credibility if sameness of subject entity was set between 0.8 and 0.9.
최장 공통 부분 서열(Longest Common Subsequence, LCS)은 서열의 유사도(similarity)를 나타내는 주요 지 표 중 하나로 사용되며, 일반적으로 두 문자열의 LCS를 계산하는 데는 문자열 길이의 곱에 비례하는 시간이 필요하 다. 극대 공통 부분 서열(Maximal Common Subsequence, MCS)은 최장(longest) 조건을 극대(maximal)로 완화한 것으로, 최근 두 문자열의 MCS를 선형에 가까운 시간에 찾는 알고리즘이 개발되었다. 두 문자열의 MCS의 길이는 LCS의 길이와 달리 유일하지 않을 수 있으며, LCS의 길이가 매우 길더라도 길이가 1인 MCS가 존재할 수 있다. 따라서 MCS의 유사도로서의 효용성은 어떤 MCS를 찾는지에 따라 달라진다. 본 논문에서는 MCS 알고리즘 의 효용성을 알아보기 위해, 다양한 실제 데이터와 랜덤 생성 데이터에 대해 MCS의 길이를 LCS의 길이와 비교하 고 상관 관계를 분석한다. MCS의 길이는 LCS 길이 대비 실제 데이터에서는 15.5~58.0%, 랜덤 데이터에서는 12.6~55.3%로 나타났고, MCS의 길이와 LCS 길이의 상관 관계도 높지 않았다
The longest common subsequence (LCS for short) is one of the main criteria of measuring sequence similarity. Finding the LCS of two strings requires a time proportional to the product of the lengths of the two strings. The maximal common subsequence(MCS for short) is a variant of the LCS, where the constraint is weakened from longest to maximal. Recently, a (sub)linearithmictime algorithm for finding an MCS of two strings was proposed. The lengths of MCS’s of two strings may not be identical unlike the lengths of LCS’s. Although the length of the LCS is very long, an MCS of length 1 may exist. Therefore, the efficacy of MCS for measuring similarity depends on which MCS is found. In this paper, in order to examine the efficacy of MCS, we compare the lengths of LCS and MCS and analyze the correlation of the two lengths for various real data and randomly generated data. The ratio of the length of MCS to the length of LCS was 15.5% to 58.0% in the real data and 12.6% to 55.3% in the random data. The correlation between the lengths of MCS and LCS was not high.
슈퍼컴퓨터는 국가의 과학기술 경쟁력에 중요한 국가 기반 기술로 산업계 전반에 큰 영향력을 가진다. 본 연구는 대 표적인 슈퍼컴퓨터의 아키텍처와 활용기술을 분석하여 슈퍼컴퓨터의 발전 방향성을 파악한다. 이를 위해, 슈퍼컴퓨 터를 특성별로 분류하여 대상을 선정하고 프로세서, 네트워크, 운영체제 및 소프트웨어를 분석한다. 슈퍼컴퓨터의 성능을 향상할 수 있는 기술인 CPU-GPU 하이브리드 구성, 광대역폭 메모리의 활용, 컴퓨터간의 고속네트워크 기 술의 활용 현황을 분석한다. 분석 결과를 바탕으로 새로운 슈퍼컴퓨터 아키텍처 연구개발과 활용하는 아키텍처의 활 용성을 최대화하는 연구개발 방향성을 제안한다. 본 연구를 활용하여 국가 차원의 연구개발 정책 수립 등의 국가 경 쟁력 확보에 도움이 되고자 한다.
Supercomputers are important to the nation's scientific and technological competitiveness, and have a great influence on the overall industry. This study analyzes the architecture and application technology of representative supercomputers to understand the development trend of supercomputers. In this study we classify supercomputers by characteristics, and select targets to analyze processing methods, networks, operating systems, and software. Then analyzes the utilization status of CPU-GPU hybrid configuration, wide-bandwidth memory, and high-speed network technology between computers, which are technologies that can improve the performance of supercomputers. Finally we suggest R&D directions of new supercomputer architectures and maximizing the utility of present architectures. This study aims to help secure national competitiveness, such as establishing national R&D policies.
중복 이미지 탐지(near-duplicate image detection)는 중복에 대하여 미리 정의된 특정 조건을 만족하는 이미지 쌍을 찾는 문제이다. 최근 연구에서는 중복 이미지 쌍을 찾기 위해 이미지 분석을 위한 딥러닝 기술이 활용되고 있 는데, 기존의 딥러닝 기법은 주로 분류 문제를 중심으로 한 지도 학습 방식을 사용하므로 클래스 라벨과 같은 교사 신호가 필요하다. 또한 중복 이미지 탐지와 같이 주어지는 입력 이미지의 도메인이 객체·풍경·인물 등과 같은 특정 그룹에 국한되지 않는 일반적인 경우에는 충분한 일반화 성능을 확보하기 힘들다. 이 문제를 해결하기 위해 본 논문 은 최근 주목받는 자기 지도 학습 모델(self-supervised model)을 이용하여 이미지의 특징을 추출하고, 다른 이미 지의 특징과 거리를 비교하는 방법으로 중복 이미지 탐지 하는 방법을 제안한다. 본 논문은 California-ND 데이터 와 MIR-Flickr Near Duplicate(MFND) 데이터를 사용하여 다른 모델과 비교 실험을 수행하였고, 제안하는 방 법이 기존 방법보다 우수한 성능을 내는 것을 확인하였다.
Near-duplicate image detection is a find image pairs that satisfy some predefined conditions on image duplication. To solve this problem, deep learning techniques for image analysis are being used actively. The conventional approaches mainly use supervised learning methods for classification tasks, which needs appropriate supervised signals such as class labels. Also, it is difficult to have sufficient generalization performance when the domain of input images is not limited to a specific group. Considering these difficulties, this paper proposes a method for near duplicate image detection by extracting image features using a self-supervised model, which has recently been attracting attention, and comparing distances between the features. We conduct comparative experiments with other models using California-ND data and MIR-Flickr Near Duplicate (MFND) data, and confirm that our method achieves the state-of-the-art performance.
본 논문에서는 환경요소 인자간 다양한 상호 연관 상관관계 맵 구성과 PCA기술을 이용한 환경요소 핵심인자 도출 로 환경요소 핵심인자 추출 및 요소간 상관관계 도출하였으며, 도출된 핵심인자와 수확량간의 연관관계성 모델 개발 및 학습과 스마트팜 우수농가 데이터를 이용한 모델의 효용성 검증을 통해 딥러닝을 활용한 핵심인자의 유효성 분석 하였다. 또한, 테스트베드 그린하우스(50평 규모)를 시공과 하우스 내․외부 환경요소 측정 센서 및 구동기 설치, 내․외부 온도, 습도, CO2 및 측창개폐 시간 측정 및 DB 구축, 내․외부 환경변화를 기반으로 한 핵심요소관리 구 동기 운영모델 도출로 내․외부 환경요소 수집 및 핵심요소관리모델을 도출하였다. 그리고, 센서기, 데이터 게이트 웨이, 모니터링 모듈 통신 프로토콜, 실시간 수집데이터 모니터링 및 통계 추출 모듈, 센서기, 게이트웨이 등록/관 리 기능 개발 등 생육환경 관리 모델을 기반으로 지능형 스마트팜 플랫폼 구성을 제안하였다.
In this paper, core factors of environmental factors and correlations between factors were derived by constructing various correlation maps between environmental factors and deriving core factors of environmental factors using PCA technology. And, the validity of the core factors using deep learning was analyzed through the development and learning of the correlation model between the derived core factors and the yield, and verification of the effectiveness of the model using the data of the smart farm. In addition, test bed green house construction, internal/external environmental factor measurement sensor and actuator installation, internal/external temperature, humidity, CO2 and side window opening/closing time measurement and DB construction, core element management based on internal and external environmental changes By deriving the actuator operation model, internal and external environmental factors were collected and a core factor management model was derived. In addition, a smart farm platform was developed based on the growth environment management model such as sensor device, data gateway, monitoring module communication protocol, real-time collected data monitoring and statistics extraction module, sensor device, gateway registration and management function development.
0개의 논문이 장바구니에 담겼습니다.
선택하신 파일을 압축중입니다.
잠시만 기다려 주십시오.