본문으로 이동

자연어 이해

위키백과, 우리 모두의 백과사전.
Image
아이슬란드 전통 의상을 입은 여성이 아이에게 읽기를 가르치고 있다

자연어 이해(Natural language understanding, NLU) 또는 자연어 해석(Natural language interpretation, NLI)[1]은 기계의 독해를 다루는 인공지능자연어 처리의 하위 분야이다. NLU는 AI-완전 문제로 간주되어 왔다.[2]

이 분야는 자동화된 추론,[3] 기계 번역,[4] 질의 응답,[5] 뉴스 수집, 문서 분류, 음성 활성화, 아카이빙 및 대규모 내용분석에 적용될 수 있기 때문에 상당한 상업적 관심을 받고 있다.

개요

[편집]

자연어 이해에서 한국어 또는 영어와 같이 일반적으로 의사소통에 쓰이는 수많은 언어를 자연어라 하며, 어떠한 것을 이해 한다는 것은 한 표현(근원표현)으로부터 다른 표현(목적표현)으로 변환시키는 것을 뜻한다.

언어의 이해에는 절대적인 개념이 거의 존재하지 않으며, 거론된 주제에 관련된 일반적 지식에 따라 다를 수 있다. 예를 들어 항공회사 자료수집 시스템에 “나는 가능한 빨리 부산에 가기를 원한다”고 말하면, 이 시스템은 부산에 가는 첫 비행기를 알아내라는 것으로 이해할 것이다. 그러나 당신의 가족이 부산에 살고 있다는 것을 아는 친한 친구에게 똑같은 말을 한다면, 그는 당신의 가족에게 문제가 생겨 당신이 어떠한 감정적 위로를 필요로 한다고 이해할 것이다.

이와 같은 언어이해의 난이성(복잡하고 힘든 성질)을 유도하는 주요요소들은 다음의 세 가지이다.

  • 정합(matching)이 행해지는 목적표현의 복잡성
  • 변환(mapping)의 유형:일 대 일, 다수 대 일, 일 대 다수, 다수 대 다수
  • 근원표현(source representation)의 요소들 간의 상호작용의 정도

이를 극복하기 위한 방법들로 개념상의 의존도모형, 자연어문장의 파스트리 등이 사용되지만 완전하진 못하다.

역사

[편집]

1964년 대니얼 보브로MIT 박사 학위 논문을 위해 작성한 STUDENT 프로그램은 컴퓨터에 의한 초기 NLU 시도 중 하나로 알려져 있다.[6][7][8][9][10] 존 매카시인공지능이라는 용어를 만든 지 8년 만에 보브로의 논문(Natural Language Input for a Computer Problem Solving System이라는 제목)은 컴퓨터가 대수 문장제를 풀기 위해 간단한 자연어 입력을 어떻게 이해할 수 있는지 보여주었다.

1년 뒤인 1965년, MIT의 조셉 웨이젠바움은 모든 주제에 대해 영어로 대화를 나누는 대화형 프로그램인 ELIZA를 작성했는데, 그중 정신 치료가 가장 인기가 있었다. ELIZA는 간단한 구문 분석과 키워드를 정해진 문구로 대체하는 방식으로 작동했으며, 웨이젠바움은 프로그램에 실제 세계 지식의 데이터베이스나 풍부한 어휘집을 제공해야 하는 문제를 교묘히 피했다. 그럼에도 불구하고 ELIZA는 장난감 프로젝트로서 놀라운 인기를 얻었으며, 애스크닷컴에서 사용하는 것과 같은 현대 상업 시스템의 매우 초기 전구체로 볼 수 있다.[11]

1969년 스탠퍼드 대학교로저 섕크는 NLU를 위한 개념 의존 이론을 도입했다.[12] 시드니 램의 작업에 부분적으로 영향을 받은 이 모델은 예일 대학교에서 로버트 윌렌스키, 웬디 레너트, 재닛 콜로드너와 같은 섕크의 제자들에 의해 널리 사용되었다.

1970년 윌리엄 A. 우즈는 자연어 입력을 표현하기 위해 확장 전이 네트워크(ATN)를 도입했다.[13] 문구 구조 규칙 대신 ATN은 재귀적으로 호출되는 동등한 유한 상태 자동자 집합을 사용했다. ATN과 "일반화된 ATN"이라 불리는 더 일반적인 형식은 수년 동안 계속 사용되었다.

1971년 테리 위노그래드는 MIT 박사 논문을 위해 SHRDLU 작성을 마쳤다. SHRDLU는 로봇 팔이 물체를 움직이도록 지시하기 위해 어린이 블록의 제한된 세계 내에서 간단한 영어 문장을 이해할 수 있었다. SHRDLU의 성공적인 시연은 이 분야의 지속적인 연구에 큰 원동력을 제공했다.[14][15] 위노그래드는 저서 'Language as a Cognitive Process'의 출판으로 이 분야에서 계속해서 주요한 영향력을 발휘했다.[16] 스탠퍼드에서 위노그래드는 나중에 구글을 공동 창립한 래리 페이지의 지도교수가 되었다.

1970년대와 1980년대에 SRI 인터내셔널의 자연어 처리 그룹은 이 분야의 연구와 개발을 지속했다. 이 연구를 기반으로 한 여러 상업적 노력이 이루어졌는데, 예를 들어 1982년 게리 헨드릭스는 원래 개인용 컴퓨터의 데이터베이스 쿼리를 위한 자연어 인터페이스를 개발하는 회사로서 시만텍 코퍼레이션을 설립했다. 그러나 마우스 중심의 그래픽 사용자 인터페이스가 등장하면서 시만텍은 방향을 전환했다. 비슷한 시기에 아티피셜 인텔리전스 코퍼레이션의 래리 R. 해리스와 인지 시스템 코퍼레이션의 로저 섕크 및 그의 제자들에 의해 여러 상업적 노력이 시작되었다.[17][18] 1983년 마이클 다이어는 예일 대학교에서 로저 섕크와 W. G. 레너트의 작업과 유사한 BORIS 시스템을 개발했다.[19]

2000년대 이후에는 IBM 왓슨과 같이 텍스트 분류를 위해 머신러닝을 사용하는 시스템이 도입되었다. 그러나 전문가들은 이러한 시스템이 얼마나 많은 "이해"를 보여주는지에 대해 논쟁한다. 예를 들어, 존 설에 따르면 왓슨은 질문조차 이해하지 못했다.[20]

인지 과학자이자 Patom 이론의 창시자인 존 볼은 이러한 평가를 지지한다. 자연어 처리는 서비스 및 전자상거래에서 인간의 생산성을 지원하는 응용 분야에 진출했지만, 이는 주로 응용 범위를 좁힘으로써 가능해졌다. 인간 언어로 무언가를 요청하는 수천 가지 방법은 여전히 전통적인 자연어 처리를 거부한다. 위베 바게만스에 따르면, "기계와 의미 있는 대화를 나누는 것은 문장의 다른 단어들의 의미를 기반으로 모든 단어를 올바른 의미에 맞출 때만 가능하다. 마치 3살 아이가 짐작 없이 하는 것처럼 말이다."[21]

범위 및 문맥

[편집]

"자연어 이해"라는 포괄적인 용어는 로봇에게 내리는 짧은 명령과 같은 작고 상대적으로 단순한 작업부터, 신문 기사나 시 구절의 완전한 이해와 같은 매우 복잡한 노력에 이르기까지 다양한 컴퓨터 응용 분야에 적용될 수 있다. 많은 실제 응용 분야는 이 두 극단 사이에 위치한다. 예를 들어, 이메일의 자동 분석 및 기업 내 적절한 부서로의 라우팅을 위한 문서 분류는 텍스트에 대한 심층적인 이해를 필요로 하지 않지만,[22] 고정된 스키마가 있는 데이터베이스 테이블에 대한 단순한 쿼리 관리보다 훨씬 더 큰 어휘와 다양한 구문을 처리해야 한다.

수년에 걸쳐 컴퓨터에 제시되는 자연어 또는 영어와 유사한 문장을 처리하려는 다양한 시도가 다양한 복잡성 수준에서 이루어졌다. 일부 시도는 깊은 이해를 가진 시스템으로 이어지지는 않았지만 전반적인 시스템 사용성을 돕기도 했다. 예를 들어, 웨인 래틀리프는 원래 스타 트렉에서 영어로 말하는 컴퓨터를 모방하기 위해 영어와 유사한 구문을 가진 Vulcan 프로그램을 개발했다. Vulcan은 나중에 DBASE 시스템이 되었으며, 사용하기 쉬운 구문은 개인용 컴퓨터 데이터베이스 산업을 효과적으로 출범시켰다.[23][24] 그러나 사용하기 쉽거나 영어와 유사한 구문을 가진 시스템은 풍부한 어휘집을 사용하고 자연어 문장의 의미에 대한 내부 표현(종종 1차 논리 형태)을 포함하는 시스템과는 상당히 구별된다.

따라서 시스템이 목표로 하는 "이해"의 폭과 깊이는 시스템의 복잡성(및 수반되는 과제)과 시스템이 다룰 수 있는 응용 분야의 유형을 결정한다. 시스템의 "폭"은 어휘와 문법의 크기로 측정된다. "깊이"는 그 이해도가 능숙한 원어민의 이해도에 얼마나 근접하는지로 측정된다. 가장 좁고 얕은 수준인 영어와 유사한 명령 인터프리터는 최소한의 복잡성을 필요로 하지만 응용 범위가 좁다. 좁지만 깊은 시스템은 이해의 메커니즘을 탐구하고 모델링하지만,[25] 여전히 한정된 응용 분야를 가진다. 단순한 키워드 매칭을 넘어 보도 자료와 같은 문서의 내용을 이해하고 사용자에게 적합한지 판단하려는 시스템은 더 넓고 상당한 복잡성을 필요로 하지만,[26] 여전히 다소 얕다. 매우 넓으면서도 매우 깊은 시스템은 현재의 기술 수준을 넘어선다.

구성 요소 및 아키텍처

[편집]

사용된 접근 방식에 관계없이 대부분의 NLU 시스템은 몇 가지 공통 구성 요소를 공유한다. 시스템에는 언어의 어휘집과 문장을 내부 표현으로 분해하기 위한 구문 분석기문법 규칙이 필요하다. 적절한 온토로지를 갖춘 풍부한 어휘집을 구축하는 데는 상당한 노력이 필요하다. 예를 들어, 워드넷 어휘집은 수많은 인력과 수년의 노력이 필요했다.[27]

또한 시스템에는 이해를 유도하기 위한 의미론의 이론이 필요하다. 언어 이해 시스템의 해석 능력은 시스템이 사용하는 의미론적 이론에 달려 있다. 언어의 경쟁적인 의미론적 이론들은 컴퓨터 자동 의미 해석의 기초로서 적합성에 있어 특정한 장단점이 있다.[28] 이들은 나이브 의미론이나 확률적 의미 분석에서부터 문맥에서 의미를 도출하기 위한 화용론의 사용까지 다양하다.[29][30][31] 의미 구문 분석기는 자연어 텍스트를 정형화된 의미 표현으로 변환한다.[32]

NLU의 고급 응용 프로그램은 또한 프레임워크 내에서 논리적 추론을 통합하려고 시도한다. 이는 일반적으로 파생된 의미를 술어 논리의 일련의 단언(assertion)으로 매핑한 다음, 논리적 연역을 사용하여 결론에 도달함으로써 달성된다. 따라서 리스프와 같은 함수형 언어에 기반한 시스템은 논리적 단언을 표현하기 위한 하위 시스템을 포함해야 하는 반면, 프롤로그 언어를 사용하는 것과 같은 논리 중심 시스템은 일반적으로 내장된 논리 표현 프레임워크의 확장에 의존한다.[33][34]

NLU에서 문맥 관리는 특별한 어려움을 초래할 수 있다. 매우 다양한 사례와 반대 사례로 인해 문맥의 형식적 모델링에 대한 다양한 접근 방식이 생겨났으며, 각 방식은 고유한 강점과 약점을 가지고 있다.[35][36]

같이 보기

[편집]

각주

[편집]
  1. Semaan, P. (2012). Natural Language Generation: An Overview 보관됨 2019-07-04 - 웨이백 머신. Journal of Computer Science & Research (JCSCR)-ISSN, 50-57
  2. Roman V. Yampolskiy. Turing Test as a Defining Feature of AI-Completeness . In Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM) --In the footsteps of Alan Turing. Xin-She Yang (Ed.). pp. 3-17. (Chapter 1). Springer, London. 2013. http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf 보관됨 2013-05-22 - 웨이백 머신
  3. Van Harmelen, Frank, Vladimir Lifschitz, and Bruce Porter, eds. Handbook of knowledge representation. Vol. 1. Elsevier, 2008.
  4. Macherey, Klaus, Franz Josef Och, and Hermann Ney. "Natural language understanding using statistical machine translation." Seventh European Conference on Speech Communication and Technology. 2001.
  5. Hirschman, Lynette, and Robert Gaizauskas. "Natural language question answering: the view from here." natural language engineering 7.4 (2001): 275-300.
  6. American Association for Artificial Intelligence Brief History of AI
  7. Daniel Bobrow's PhD Thesis Natural Language Input for a Computer Problem Solving System.
  8. Machines who think by Pamela McCorduck 2004 ISBN 1-56881-205-1 page 286
  9. Russell, Stuart J.; Norvig, Peter (2003), Artificial Intelligence: A Modern Approach Prentice Hall, ISBN 0-13-790395-2, http://aima.cs.berkeley.edu/, p. 19
  10. Computer Science Logo Style: Beyond programming by Brian Harvey 1997 ISBN 0-262-58150-7 page 278
  11. Weizenbaum, Joseph (1976). Computer power and human reason: from judgment to calculation W. H. Freeman and Company. ISBN 0-7167-0463-3 pages 188-189
  12. Roger Schank, 1969, A conceptual dependency parser for natural language Proceedings of the 1969 conference on Computational linguistics, Sång-Säby, Sweden, pages 1-3
  13. Woods, William A (1970). "Transition Network Grammars for Natural Language Analysis". Communications of the ACM 13 (10): 591–606
  14. Artificial intelligence: critical concepts, Volume 1 by Ronald Chrisley, Sander Begeer 2000 ISBN 0-415-19332-X page 89
  15. Terry Winograd's SHRDLU page at Stanford SHRDLU 보관됨 2020-08-17 - 웨이백 머신
  16. Winograd, Terry (1983), Language as a Cognitive Process, Addison–Wesley, Reading, MA.
  17. Larry R. Harris, Research at the Artificial Intelligence corp. ACM SIGART Bulletin, issue 79, January 1982
  18. Inside case-based reasoning by Christopher K. Riesbeck, Roger C. Schank 1989 ISBN 0-89859-767-6 page xiii
  19. In Depth Understanding: A Model of Integrated Process for Narrative Comprehension.. Michael G. Dyer. MIT Press. ISBN 0-262-04073-5
  20. Searle, John (2011년 2월 23일). Watson Doesn't Know It Won on 'Jeopardy!'. Wall Street Journal.
  21. Brandon, John (2016년 7월 12일). What Natural Language Understanding tech means for chatbots (미국 영어). VentureBeat. 2024년 2월 29일에 확인함.
  22. An approach to hierarchical email categorization by Peifeng Li et al. in Natural language processing and information systems edited by Zoubida Kedad, Nadira Lammari 2007 ISBN 3-540-73350-7
  23. InfoWorld, Nov 13, 1989, page 144
  24. InfoWorld, April 19, 1984, page 71
  25. Building Working Models of Full Natural-Language Understanding in Limited Pragmatic Domains by James Mason 2010
  26. Mining the Web: discovering knowledge from hypertext data by Soumen Chakrabarti 2002 ISBN 1-55860-754-4 page 289
  27. G. A. Miller, R. Beckwith, C. D. Fellbaum, D. Gross, K. Miller. 1990. WordNet: An online lexical database. Int. J. Lexicograph. 3, 4, pp. 235-244.
  28. Using computers in linguistics: a practical guide by John Lawler, Helen Aristar Dry 198 ISBN 0-415-16792-2 page 209
  29. Naive semantics for natural language understanding by Kathleen Dahlgren 1988 ISBN 0-89838-287-4
  30. Stochastically-based semantic analysis by Wolfgang Minker, Alex Waibel, Joseph Mariani 1999 ISBN 0-7923-8571-3
  31. Pragmatics and natural language understanding by Georgia M. Green 1996 ISBN 0-8058-2166-X
  32. Wong, Yuk Wah, and Raymond J. Mooney. "Learning for semantic parsing with statistical machine translation." Proceedings of the main conference on Human Language Technology Conference of the North American Chapter of the Association of Computational Linguistics. Association for Computational Linguistics, 2006.
  33. Natural Language Processing Prolog Programmers by M. Covington, 1994 ISBN 0-13-629478-2
  34. Natural language processing in Prolog by Gerald Gazdar, Christopher S. Mellish 1989 ISBN 0-201-18053-7
  35. Understanding language understanding by Ashwin Ram, Kenneth Moorman 1999 ISBN 0-262-18192-4 page 111
  36. Formal aspects of context by Pierre Bonzon et al 2000 ISBN 0-7923-6350-7