GPT-3 (Generative Pre-Trained Transformer)
substantivo
Fonte: MONTEMAYOR, Carlos. Language and Intelligence. Minds and Machines, v. 31, n. 4, p. 471-486, 2021.
Termo equivalente: Transformador Gerador Pré-Treinado (GPT-3)
Fonte: BAJAJ, Deepali et al. MUCE: a multilingual use case model extractor using GPT-3. International Journal of Information Technology, p. 1-12, 2022.
Definição em português: "O GPT-3 é um modelo de linguagem autorregressivo que usa aprendizado profundo para produzir texto semelhante ao humano. É um modelo de previsão de linguagem que pode ser ajustado com o aprendizado Few-Shot para extrair requisitos funcionais em um ambiente multilíngue."
GPT-3 (Generative Pre-Trained Transformer)
substantivo
Fonte: MONTEMAYOR, Carlos. Language and Intelligence. Minds and Machines, v. 31, n. 4, p. 471-486, 2021.
Termo equivalente: Transformador Gerador Pré-Treinado (GPT-2)
Fonte: FAGNI, Tiziano et al. TweepFake: About detecting deepfake tweets. Plos one, v. 16, n. 5, p. e0251415, 2021.
Definição em português: "Os avanços recentes na modelagem de linguagem melhoraram significativamente os recursos generativos de modelos neurais profundos: em 2019, a OpenAI lançou o GPT-2, um modelo de linguagem pré-treinado que pode gerar autonomamente amostras de texto coerentes, não triviais e semelhantes a humanos."