{"id":40,"date":"2024-03-05T13:43:12","date_gmt":"2024-03-05T12:43:12","guid":{"rendered":"http:\/\/wp.orai.eus\/?page_id=40"},"modified":"2024-03-08T12:57:16","modified_gmt":"2024-03-08T11:57:16","slug":"presentacion","status":"publish","type":"page","link":"https:\/\/icl4lang.orai.eus\/?page_id=40&lang=es","title":{"rendered":"Presentacion"},"content":{"rendered":"\n<p style=\"font-style:normal;font-weight:300\">Los grandes modelos de lenguaje generativos pre-entrenados, como GPT3 y similares, son un tipo de arquitectura de redes neuronales profundas que actualmente se est\u00e1 utilizando con gran \u00e9xito en el campo de la Inteligencia Artificial. Estos modelos se aplican en tareas que requieren de la comprensi\u00f3n y generaci\u00f3n del lenguaje humano.<\/p>\n\n\n\n<p style=\"font-style:normal;font-weight:300\">Estos modelos generativos de lenguaje son grandes modelos neuronales de miles de millones de par\u00e1metros. Se pre-entrenan con extensas colecciones de textos mediante algoritmos de aprendizaje profundo, dotando al modelo de una capacidad general de comprensi\u00f3n y generaci\u00f3n del lenguaje.<\/p>\n\n\n\n<p style=\"font-style:normal;font-weight:300\">Una de las principales ventajas de estos modelos es que pueden aplicarse de forma directa para resolver una amplia gama de tareas relacionadas con el lenguaje humano. Esta aplicaci\u00f3n directa es posible gracias al paradigma conocido como Aprendizaje en Contexto (In-Context Learning). Adem\u00e1s, este paradigma permite un desarrollo escalable de tecnolog\u00edas del lenguaje, ya que apenas se requieren de datos de ejemplo para ejecutar tareas del lenguaje.<\/p>\n\n\n\n<p style=\"font-style:normal;font-weight:300\">Sin embargo, la construcci\u00f3n de modelos generativos de lenguaje y su aplicaci\u00f3n mediante t\u00e9cnicas de Aprendizaje en Contexto plantea grandes desaf\u00edos.<\/p>\n\n\n\n<p style=\"font-style:normal;font-weight:300\">El objetivo principal del proyecto consiste en generar conocimiento sobre modelos de lenguaje autorregresivos mediante la investigaci\u00f3n de nuevos algoritmos y arquitecturas neuronales que permita adaptarlos a reg\u00edmenes de c\u00f3mputo y conjuntos de datos de preentrenamiento limitados y sobre su explotaci\u00f3n \u00f3ptima mediante algoritmos de Aprendizaje en Contexto en casos de uso clave del PLN.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Los grandes modelos de lenguaje generativos pre-entrenados, como GPT3 y similares, son un tipo de arquitectura de redes neuronales profundas que actualmente se est\u00e1 utilizando con gran \u00e9xito en el campo de la Inteligencia Artificial. Estos modelos se aplican en tareas que requieren de la comprensi\u00f3n y generaci\u00f3n del lenguaje humano. Estos modelos generativos de lenguaje son grandes modelos neuronales de miles de millones de par\u00e1metros. Se pre-entrenan con extensas colecciones de textos mediante algoritmos de aprendizaje profundo, dotando al modelo de una capacidad general de comprensi\u00f3n y generaci\u00f3n del lenguaje. Una de las principales ventajas de estos modelos es que pueden aplicarse de forma directa para resolver una amplia gama de tareas relacionadas con el lenguaje humano. Esta aplicaci\u00f3n directa es posible gracias al paradigma conocido como Aprendizaje en Contexto (In-Context Learning). Adem\u00e1s, este paradigma permite un desarrollo escalable de tecnolog\u00edas del lenguaje, ya que apenas se requieren de&hellip;<\/p>\n<p> <a class=\"more-link\" href=\"https:\/\/icl4lang.orai.eus\/?page_id=40&#038;lang=es\">Read more<\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"footnotes":""},"class_list":["post-40","page","type-page","status-publish"],"_links":{"self":[{"href":"https:\/\/icl4lang.orai.eus\/index.php?rest_route=\/wp\/v2\/pages\/40","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/icl4lang.orai.eus\/index.php?rest_route=\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/icl4lang.orai.eus\/index.php?rest_route=\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/icl4lang.orai.eus\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/icl4lang.orai.eus\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=40"}],"version-history":[{"count":3,"href":"https:\/\/icl4lang.orai.eus\/index.php?rest_route=\/wp\/v2\/pages\/40\/revisions"}],"predecessor-version":[{"id":140,"href":"https:\/\/icl4lang.orai.eus\/index.php?rest_route=\/wp\/v2\/pages\/40\/revisions\/140"}],"wp:attachment":[{"href":"https:\/\/icl4lang.orai.eus\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=40"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}