Earticle

How to Generate the Structure of Language by LLMs?

  • 간행물
    한국언어과학회 학술대회 바로가기
  • 권호(발행년)
    한국언어과학회 2026년 겨울학술대회 (2026.02) 바로가기
  • 페이지
    pp.57-66
  • 저자
    Kwon Kiyang
  • 언어
    영어(ENG)
  • URL
    https://www.earticle.net/Article/A480342

원문정보

목차

1. Backgrounds
1. Nature of the Structure of Language (Marcolli et al., 2025)
2. Existing LLMs of the structure of language
2. Vector-based Model: Transformer Model (Vaswani et al., 2017)
1. Transformer Model architecture (Vaswani et al., 2017: 4)
2. Scaled Dot-Product Attention
3. Positional Encoding and Structural Invariance
4. Self Attention
5. Open Question
3. Syntax-based Model: AMR Model (Banarescu et al. 2013)
1. Syntax Model architecture
4. Hybrid Model: VerbNet-ConceptNet Model(Fodor, De Deyne, and Suzuki 2024)
1. Fodor, De Deyne, and Suzuki (2024: 148)
2. Evaluation of three models
3. Results & Analysis (Fodor, De Deyne, and Suzuki 2024: 169)
5. Further Studies
1. The mathematical structure of Merge (Marcolli et al., 2025)
6 . Refereces

저자

  • Kwon Kiyang [ Youngsan University ]

참고문헌

자료제공 : 네이버학술정보

    간행물 정보

    • 간행물
      한국언어과학회 학술대회
    • 간기
      반년간
    • 수록기간
      2001~2026
    • 십진분류
      KDC 705 DDC 405