Meta anunció nuevos modelos de IA capaces de reconocer y reproducir el habla en más de 1100 idiomas. Tiene diez veces la capacidad de tecnologías similares existentes, dijo la compañía en un comunicado. Enfatizó que esta es una iniciativa para preservar lenguas que están en riesgo de desaparecer.
Este Massively Multilingual Speech (MMS) está disponible para el público a través del servicio de alojamiento de código GitHub. Meta explicó que liberarlos como código abierto ayudará a los desarrolladores a crear nuevas aplicaciones de voz más inclusivas.
El nuevo modelo puede leer texto en más de 1100 dialectos y convertirlo en voz (y reconocer el habla y convertirlo en texto). Sin embargo, podrían identificar más de 4.000, lo que representaría 40 veces la capacidad disponible actualmente.
Hay alrededor de 7,000 idiomas en el mundo, pero las herramientas de reconocimiento de voz convencionales existentes solo pueden reconocer alrededor de 100. La mayoría de estos sistemas suelen requerir grandes cantidades de datos de entrenamiento etiquetados, como transcripciones. El problema es que estos también solo están disponibles en un puñado de idiomas, incluidos español, inglés y chino.
Meta aprovecho un modelo de inteligencia artificial creado en el 2020
Meta aprovecha un modelo de inteligencia artificial que desarrolló en 2020. El sistema ya puede aprender patrones de voz a partir de audio sin necesidad de grandes cantidades de datos etiquetados, como transcripciones.
La empresa matriz de Facebook e Instagram, utilizó dos nuevos conjuntos de datos. Las primeras grabaciones de audio y textos del Nuevo Testamento de la Biblia, disponibles en Internet en 1.107 idiomas. MIT Technology Review publicó una segunda grabación sin etiquetar del Nuevo Testamento, que contiene 3.809 dialectos.
Los investigadores de Meta utilizaron un algoritmo diseñado para alinear las grabaciones con el texto que las acompaña. Luego repitieron el mismo proceso con un segundo algoritmo, entrenando con los datos recién alineados. Al final, el equipo logró entrenar el algoritmo para aprender un nuevo idioma más fácilmente, incluso sin el texto que lo acompaña.
Meta comparó su modelo con los de OpenAI Whisper y otros competidores. Dijo que su tasa de error era la mitad, a pesar de cubrir 11 veces más idiomas.
“Ahora podemos construir sistemas de voz muy rápidamente con muy, muy pocos datos”, dijo al MIT Michael Auli, científico del proyecto. Sin embargo, los investigadores advierten que estos modelos de lenguaje impulsados por IA aún pueden transcribir ciertas palabras o frases incorrectamente. De hecho, esto puede conducir a un etiquetado inexacto o potencialmente ofensivo.
Meta presento un modelo de inteligencia artificial (IA) que puede seleccionar elementos individuales en una imagen. Lo llaman SAM, sus desarrolladores explican que pretenden democratizar un aspecto clave de la visión artificial con el sistema.
Esta nueva IA permite lo que se conoce como “segmentación”, la capacidad de identificar qué píxeles de una imagen pertenecen a un objeto en particular. El funcionamiento de SAM es muy sencillo: basta con hacer clic en el elemento que desea seleccionar o introducir su nombre. En una demostración, al señalar la palabra “gato”, la herramienta dibujó cuadros alrededor de varios gatos que aparecían en las fotos.
En un comunicado, Meta dijo que el lanzamiento de SAM estuvo acompañado por el lanzamiento de SA-1B (Segment Anything 1-Billio), el conjunto de datos de segmentación más grande hasta la fecha. Esta IA está entrenada para tener una “idea general” de lo que es un objeto y puede encontrar todo tipo de cosas en cualquier imagen o video.
¿Cual podría ser el uso principal de SAM?
La aplicación más obvia es la edición de fotos. Pero en el futuro, explicó Meta, los SAM podrían usarse para identificar objetos cotidianos a través de gafas de realidad aumentada. Los usuarios pueden recibir recordatorios o instrucciones de esta manera. La empresa también destacó sus aplicaciones potenciales en el análisis científico de imágenes.
El nuevo modelo de IA se entrenó en un conjunto de datos de más de mil millones de “máscaras de segmentación”, partes de un objeto que un sistema de visión artificial puede identificar por sus límites. Esto le permite generalizar a nuevos tipos de elementos, más allá de los que observa durante el entrenamiento. Meta también destaca que SAM le permite recopilar nuevas máscaras de forma interactiva en menos de 14 segundos.
Meta, la empresa matriz de Facebook e Instagram, ya utiliza una tecnología similar para tareas internas como categorizar imágenes, filtrar contenido inapropiado y recomendar publicaciones a los usuarios en su red social. Los modelos y conjuntos de datos SAM se pueden descargar para uso no comercial. Los usuarios que quieran probar el prototipo con sus propias imágenes también deben aceptar que es solo para fines de investigación.
El CEO Mark Zuckerberg explicó que, además de desarrollar SAM, Meta también hizo de la integración de más “herramientas creativas” de inteligencia artificial generativa en su aplicación un objetivo clave este año.
La compañía anunció su modelo de lenguaje propio, LLaMA, el pasado mes de febrero. A diferencia de ChatGPT o Bard, Meta describe su propuesta como una herramienta más “más pequeña y de mayor rendimiento”. También está disponible para grupos de investigación específicos bajo una licencia no comercial.
Meta ha confirmado que Messenger volverá a la aplicación de Facebook, por lo que ya no es necesario descargar una aplicación adicional para enviar mensajes. La fusión se produce casi una década después de que los usuarios se vieran obligados a instalar Messenger para enviar mensajes a sus contactos. En ese momento, Mark Zuckerberg y compañía tuvieron una idea para la “mejor experiencia de mensajería móvil”, por lo que decidieron que era esencial separarla de la aplicación principal.
Por ahora la empresa está tratando de simplificar la experiencia. La integración de Messenger se anunció en una publicación de blog de la empresa que detalla el papel de la inteligencia artificial en el futuro de Meta. Según el jefe de Facebook, Tom Alison, parte de brindar una buena experiencia para las personas que usan IA es facilitar que las personas compartan lo que descubren sin tener que abrir otra aplicación.
Durante el próximo año, crearemos más formas de integrar funciones de mensajería en Facebook. En última instancia, queremos que sea fácil y conveniente para las personas conectarse y compartir, ya sea en la aplicación Messenger o directamente en Facebook.
Facebook planea usar IA en su aplicación
Facebook ha sufrido cambios importantes en los últimos dos años. Las redes sociales ya no son donde nos enteramos de lo que pasa con nuestros amigos o familiares. Ahora es solo otro sitio de entretenimiento para descubrir cosas nuevas, y mucho tiene que ver con nuestra decisión de empujar publicaciones de personas que no seguimos.
Meta ya no quiere que Messenger sea la mejor experiencia de mensajería móvil, sino solo otra herramienta para compartir “cosas interesantes” como TikTok. El gerente mencionó que están tratando de mostrar todo lo que nos puede importar y para eso invertirán en inteligencia artificial. La empresa utiliza algoritmos de inteligencia artificial para recomendar todo tipo de publicaciones y confirmó que seguirán por este camino.
En 2020, Meta anunció que permitiría la mensajería cruzada entre Messenger e Instagram, y ahora busca simplificar la experiencia. Según la empresa, los usuarios de Instagram comparten Reels casi mil millones de veces al día a través de mensajes privados. La tendencia de compartir videos cortos también está en aumento en Facebook, por lo que tiene sentido recuperar una de sus características más básicas.
Actualmente no hay información sobre cuándo podremos enviar mensajes nuevamente dentro de Facebook. Hace unos meses, la compañía te permitía hacerlo si accedías a través de la versión web de tu teléfono, aunque ahora hay que descargar Messenger.
Estos avatares llegaron a WhatsApp en México y en todo el mundo. El CEO de Meta, Mark Zuckerberg, anunció el lanzamiento de avatares en WhatsApp, al igual que sucedió con Facebook hace unos años.
Al igual que su contraparte de Facebook, el avatar de WhatsApp es una “versión digital de ti”, trayendo “una forma nueva y personalizada de expresarte” desde la red social para que los usuarios puedan interactuar con sus contactos, ya sean amigos o familiares. Según WhatsApp, los usuarios pueden crear sus avatares a partir de “miles de millones” de combinaciones de peinados, rasgos faciales y ropa. El avatar se puede utilizar como imagen de perfil o elegir entre 36 pegatinas personalizadas que representan emociones y acciones.
Además, la compañía se aseguró de que continuará brindando actualizaciones a sus avatares, no solo con más opciones de personalización, sino también con efectos de iluminación, sombras, texturas de cabello y más.
Cómo crear un avatar de WhatsApp en México
Para crear un avatar de WhatsApp en México, solo es necesario seguir estos sencillos pasos:
Ir al menú Configuración > Avatar.
Seguir los pasos para personalizar el avatar, como tono de piel, tipo de peinado, color de cabello, vestimenta, cuerpo, forma y color de ojos, maquillaje, entre otros.
Listo, después de estos sencillos pasos, el avatar de WhatsApp se creará.
WhatsApp dará la opción de seleccionar el recién creado avatar como foto de perfil, o bien de crear stickers personalizados.
Desde este mismo menú es posible editar el avatar y también eliminarlo en caso de que así se requiera.
Cabe mencionar que cuando apareció el avatar de WhatsApp en una versión beta de la aplicación de Android, la gente supo que existía durante unos meses. Después del período de prueba, los avatares ahora llegan oficialmente a todos los usuarios de la plataforma de mensajería.
Meta pagará una multa de $276 millones por la violación de datos de abril de 2021 de 533 millones de usuarios.
Meta incumplió las leyes del Reglamento General de Protección de Datos de Europa, un problema que resultó en una multa de 265 millones de euros.
La empresa afirma que los hackers obtuvieron la información a través de una vulnerabilidad que la empresa solucionó en 2019, y que es la misma información involucrada en una filtración anterior informada por Motherboard en enero de 2021.
No es la primera multa de Meta
Meta pagará al CPD su tercera multa de este tipo pues en marzo pagó la cantidad de de 18,6 millones de dólares por mala gestión de registros relacionada con una serie de filtraciones de datos en 2018 que expusieron la información de hasta 30 millones de usuarios. usuario.
Meta ah pagado casi 700 millones de dólares por CPD en 2022 por distintas cuestiones, una cuestión inaceptable para la marca de Mark Zuckerberg, en los últimos años ha habido más noticias de distintas polémicas que de buenas.
La empresa buscará mejorar sus defensas ante estos problemas que se han convertido en norma, pero la regulación es algo muy complicado, y seguirán surgiendo.