Earticle

현재 위치 Home

AI와 언어응용

AI-Driven Multimodal Analysis of DANGER in KSL and ASL Using Visual Grammar

첫 페이지 보기
  • 발행기관
    한국언어과학회 바로가기
  • 간행물
    한국언어과학회 학술대회 바로가기
  • 통권
    한국언어과학회 2026년 겨울학술대회 (2026.02)바로가기
  • 페이지
    pp.89-96
  • 저자
    Lee, Seonhye, Hahm, Hyunjong, Jhang, Se-Eun
  • 언어
    영어(ENG)
  • URL
    https://www.earticle.net/Article/A480348

※ 기관로그인 시 무료 이용이 가능합니다.

4,000원

원문정보

초록

영어
This study proposes an interdisciplinary framework that integrates Visual Grammar with Artificial Intelligence (AI) to quantify multimodal semantics in sign language. Focusing on the lexical item “DANGER” in Korean Sign Language (KSL) and American Sign Language (ASL), we examine how representational, interactive, and compositional meanings are manifested in 3D kinematic patterns extracted from video. The analysis provides empirical evidence of contrasting representational strategies: KSL shows an internalized Z-axis “Impact” vector toward the chest, while ASL exhibits an externalized X-axis “Friction” vector associated with contact-based motion. In addition, AI-based quantification of non-manual markers reveals a consistent face–manual timing relationship, with facial tension preceding the manual sign by 185 ms (KSL) and 245 ms (ASL), supporting the theoretical view of facial expressions as grammatical anchors in multimodal communication. By moving beyond qualitative description toward measurement-based validation, this work positions AI as a methodological instrument for Digital Sign Humanities and demonstrates how micro-temporal and micro-spatial patterns—often difficult to detect through manual observation—can be systematically linked to linguistic interpretation. Future work will extend this framework to larger datasets and additional sign languages toward a global digital atlas of sign-language kinematics.

목차

Abstract
1. Introduction
1.1. Background: AI as a Precision Ruler for the Humanities
1.2. Research Objectives
1.3. Research Questions (RQ)
2. Literature Review: Visual Grammar and Multimodal AI
2.1 Visual Grammar: a humanities theory for multimodal meaning
2.2 Multimodal AI and quantitative sign-language analysis
2.3 Lexical resources supporting citation-form baselines
3. Data and Methodology
3.1. Data Selection
3.2. AI Methodology
3.3. Feature Set (aligned with RQs and Results)
4. Results and Discussion
4.1. Representational Meaning: Internalized vs. Externalized Hazards
4.2. Interactive Meaning: Facial Precedence (The &quat;Face-First&quat; Siren Effect)
4.3. Compositional Meaning: Spatial Salience
5. Conclusion
5.1. Summary of Findings
5.2. Future Work: Toward a Global Atlas
References

키워드

Visual Grammar AI-Driven Kinematics Multimodal Analysis KSL and ASL Comparison Non-manual Markers Digital Sign Humanities

저자

  • Lee, Seonhye [ 이선혜 | Pukyong National University ]
  • Hahm, Hyunjong [ 함현종 | University of Guam ]
  • Jhang, Se-Eun [ 장세은 | Korea Maritime & Ocean University ]

참고문헌

자료제공 : 네이버학술정보

간행물 정보

발행기관

  • 발행기관명
    한국언어과학회 [The Korean Association of Language Sciences]
  • 설립연도
    1993
  • 분야
    인문학>언어학
  • 소개
    한국언어과학회는 인간 사고에 대한 궁극적인 이해를 모태로 하여 그에 대한 구체적인 방법론을 제시하고, 인간 삶의 바람직한 사회적 행위를 이해하고 개선하는데 필요한 인간 중심의 언어학을 목표로하며, 언어의 이론적 연구와 그 응용을 목적으로 한다.

간행물

  • 간행물명
    한국언어과학회 학술대회
  • 간기
    반년간
  • 수록기간
    2001~2026
  • 십진분류
    KDC 705 DDC 405

이 권호 내 다른 논문 / 한국언어과학회 학술대회 한국언어과학회 2026년 겨울학술대회

    피인용수 : 0(자료제공 : 네이버학술정보)

    함께 이용한 논문 이 논문을 다운로드한 분들이 이용한 다른 논문입니다.

      페이지 저장