Compreensão Da Linguagem Natural

O conhecimento de linguagem natural (CLN) é uma parte do processamento de língua natural em inteligência artificial que trabalha com a sabedoria de leitura em dispositivos eletrônicos. CLN é considerado um problema AI-duro. Há um considerável interesse comercial no campo, devido a tua aplicação pela reunião de notícias, categorização de texto, ativação de vozes, e observação em vasto escala de assunto.

O programa STUDENT (aluno), escrito em 1964 por Daniel Bobrow pra tua dissertação de PhD no MIT é um dos primeiros registros famosos do conhecimento por um pc da linguagem natural. Um ano mais tarde, em 1965, Joseph Weizenbaum no MIT, escreveu ELIZA, um programa interativo que mantinha uma discussão conexo em Inglês goles de cada assunto, a maioria a respeito da psicoterapia.

ELIZA trabalhava com um app claro e substituindo palavras chave por frases models, e Weizenbaum iludiu o defeito de doar ao programa uma base de fatos de discernimento do universo real ou de um excelente léxico. Em 1969, Roger Schank na instituição de Stanford, introduziu a suposição de dependência conceitual para o conhecimento da língua natural.

  1. Junto com o iOS, ambos dominam o mercado de telefonia móvel a nível mundial
  2. E afinal de contas “pede mediação”, para que se comece a mediação no ponto em que ele deixou
  3. Não contém uma escala que oriente o leitor sobre o tamanho das ilhas e as distâncias
  4. um Títulos pendentes
  5. dois Xadrez por pc
  6. o Que está falhando
  7. Confirmado na ciência: Hitler morreu no bunker
  8. Permite utilizar imagens .GIF animadas na janela de imagem pessoal

Este paradigma, parcialmente influenciado pelo trabalho de Sydney Lamb, era utilizado por alunos de Schank na Universidade de Yale, Robert Wilensky, Wendy Lehnert, e Janet Kolodner. Em 1970, William A. Woods introduziu a rede de transição aumentada (RTA) pra simbolizar entrada de língua natural.

Em vez de regras de suporte de frase, os RTAs usavam um conjunto equivalente de estado autômato finito que era chamado recursivamente. RTAs e teu modelo mais geral chamado “RTAs generalizados” seguiram a ser utilziados por diversos anos. Em 1971, Terry Winograd finalizou de publicar SHRDLU pra tua tese de Doutorado no MIT.

SHRDLU poderia compreender frases inglesas acessível em um mundo restrito de blocos de filhos para dirigir um braço robótico que move elementos. A amostra bem sucedida de SHRDLU contou a credibilidade da sequência da busca no campo. Winograd continuou sendo uma considerável influência no campo, com a publicação de teu livro Linguagem como um método cognitivo.