{ "cells": [ { "cell_type": "markdown", "metadata": {}, "source": [ "
\n",
""
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"# **NOTEBOOK 19**\n",
"---"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"# **Text-To-Text Transfer Transformer (T5)**\n",
"\n",
"El modelo T5, o **Text-To-Text Transfer Transformer**, es un modelo de lenguaje muy versátil desarrollado por Google Research. Fue introducido en un artículo titulado \"Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer\" por Colin Raffel y otros en 2019. El modelo se basa en la arquitectura Transformer, que se ha convertido en un estándar de facto para muchas tareas de procesamiento de lenguaje natural (NLP).\n",
"\n",
"### **Diseño y Filosofía**\n",
"\n",
"El modelo T5 adopta un enfoque unificado hacia el procesamiento del lenguaje natural: trata todas las tareas de NLP como una tarea de \"texto a texto\". Esto significa que cada tarea, ya sea traducción de idiomas, resumen de texto, clasificación de sentimientos, o cualquier otra, se formula de manera que el input y el output son siempre secuencias de texto. Por ejemplo:\n",
"- **Traducción**: El input es texto en un idioma, y el output es texto en otro idioma.\n",
"- **Resumen**: El input es un documento largo, y el output es su resumen.\n",
"- **Clasificación de sentimiento**: El input es una reseña, y el output es una etiqueta de sentimiento como \"positivo\" o \"negativo\".\n",
"\n",
"