loader image
ALKAPONE.TV
OpenAI lanza Chat GPT-4 con importantes mejoras
OpenAI

El nuevo modelo de lenguaje GPT-4 de OpenAI se presentó este martes, este nuevo modelo ofrece un impulso significativo en su capacidad para analizar problemas complejos y ofrece más opciones de comunicación. Los usuarios ya no estarán limitados a interactuar con textos cortos como preguntas simples, sino que podrán cargar imágenes o textos largos, completar artículos o incluso libros pequeños, resumir, analizar o buscar patrones complejos.

Por supuesto, la inteligencia del servicio también se ha mejorado, con OpenAI afirmando que su capacidad de razonar sobre problemas complejos ahora es más humana y menos propensa a errores obvios, como pudimos detectar en su versión anterior GPT – 3.5 .

Importantes mejoras acompañan a Chat GPT-4

La nueva versión de GPT-4 es capaz de procesar más de 25 000 palabras de texto, lo que admite casos de uso como la creación de contenido de formato largo, conversaciones de formato largo y búsqueda y análisis de documentos proporcionados por el usuario. Esto le permite traducir documentos o simplificar el trabajo del editor de encontrar redundancias y errores ortográficos o gramaticales. Si continúa ampliando estas capacidades, incluso podría usarse para detectar el estilo general o la posible autoría. Ya conocemos casos en los que se ha utilizado la IA para rescatar e identificar a los autores de muchos manuscritos.

Durante seis meses, OpenAI ha estado trabajando para lograr la alineación correcta, el mayor dolor de cabeza para los investigadores que buscan inteligencia artificial general.

La alineación de la inteligencia artificial es uno de los temas candentes en Silicon Valley. Para algunos investigadores, estos son extremadamente peligrosos porque están incorrectamente alineados con los intereses morales humanos y podrían proporcionar información falsa o dañina para la sociedad en su conjunto. Otros, sin embargo, argumentan que alineaciones muy estrictas pueden favorecer a determinados grupos políticos en detrimento de los intereses generales y el pluralismo. OpenAI aboga por dar a los usuarios la libertad de ir dentro de un amplio rango de lo que los humanos consideran “correcto”, pero para ofrecer esa posibilidad, necesitan mejorar su consistencia, ha asegurado repetidamente su presidente Sam Altman.

El nuevo Chat GPT-4 también entiende imágenes

Chat GP4-4 Es capas de recomendarte que comer si comparte una foto del interior de un refrigerador. Esta pequeña mejora y utilidad demuestra un gran salto en las capacidades cognitivas de su modelo de lenguaje. Cualquier inteligencia artificial tendría que ser entrenada en miles de fotos de cada verdura, fruta o verdura para reconocerlas porque no se abstrae como un humano. Algunos modelos se han utilizado para clasificar bosques, detectar nidos de pájaros o localizar lugares donde los animales están en peligro de extinción. Pero GPT-4 es general y está abierto al público; por ejemplo, ha sido entrenado para reconocer no solo un mamífero, sino cualquier objeto, producto o paisaje.

Ahora es capaz de interpretar bocetos a lápiz de páginas web y convertirlos en código HTML, CSS y Javascript con títulos y botones funcionales.

Algunos rumores apuntan a que esta nueva versión de ChatGPT permitirá la creación de imágenes, algo que ya hace la propia Dalle-2 de la compañía, vídeo o audio, pero Altman ha advertido que la gente se “decepcionará con tal altas expectativas.”

También te puede interesar: El nuevo Realme C55 copia la “Isla Dinámica” del iPhone 14 Pro

Comentarios

Lo último

Eventos
[MEC id="159"]
Listado

Categorías

Shares
Share This