Glossário


Contribua com o glossário

GPT-3 (Generative Pre-Trained Transformer)

Filosofia
Verbete 1 de 2

substantivo

Contexto: "After introducing key features of GPT-3 and assessing its performance in the light of the conversational standards set by Alan Turing in his seminal paper from 1950, the paper elucidates the difference between clever automation and genuine linguistic intelligence."
Fonte: MONTEMAYOR, Carlos. Language and Intelligence. Minds and Machines, v. 31, n. 4, p. 471-486, 2021.

Termo equivalente: Transformador Gerador Pré-Treinado (GPT-3)

Definição: "GPT-3 is an autoregressive language model that uses deep learning to produce human-like text. It is a language prediction model that can be tuned with Few-Shot learning to extract functional requirements in a multilingual setting."
Fonte: BAJAJ, Deepali et al. MUCE: a multilingual use case model extractor using GPT-3. International Journal of Information Technology, p. 1-12, 2022.

Definição em português: "O GPT-3 é um modelo de linguagem autorregressivo que usa aprendizado profundo para produzir texto semelhante ao humano. É um modelo de previsão de linguagem que pode ser ajustado com o aprendizado Few-Shot para extrair requisitos funcionais em um ambiente multilíngue."

GPT-3 (Generative Pre-Trained Transformer)

Filosofia
Verbete 2 de 2

substantivo

Contexto: "GPT-3 represents a quite dramatic improvement from its predecessor, GPT-2."
Fonte: MONTEMAYOR, Carlos. Language and Intelligence. Minds and Machines, v. 31, n. 4, p. 471-486, 2021.

Termo equivalente: Transformador Gerador Pré-Treinado (GPT-2)

Definição: "The recent advances in language modeling significantly improved the generative capabilities of deep neural models: in 2019 OpenAI released GPT-2, a pre-trained language model that can autonomously generate coherent, non-trivial and human-like text sample."
Fonte: FAGNI, Tiziano et al. TweepFake: About detecting deepfake tweets. Plos one, v. 16, n. 5, p. e0251415, 2021.

Definição em português: "Os avanços recentes na modelagem de linguagem melhoraram significativamente os recursos generativos de modelos neurais profundos: em 2019, a OpenAI lançou o GPT-2, um modelo de linguagem pré-treinado que pode gerar autonomamente amostras de texto coerentes, não triviais e semelhantes a humanos."