top of page

Desvendando o ChatGPT 4 Omni: A inovação revolucionária da OpenAI

Na segunda-feira, dia 13, a OpenAI lançou um novo modelo de inteligência artificial generativa denominado GPT-4M – o "M" alude à sua abrangência multimodal, referindo-se à sua capacidade de processar texto, áudio e vídeo. O GPT-4M está pronto para ser integrado "interativamente" nos produtos da empresa direcionados tanto para desenvolvedores quanto para consumidores nas próximas semanas.

ChatGPT

Durante uma transmissão nos escritórios da OpenAI em São Francisco na segunda-feira, Mira Murati, CTO da OpenAI, explicou: "O GPT-4M opera através de voz, texto e visão". Ela ressaltou a importância disso, afirmando: "Estamos vislumbrando o futuro da interação humano-máquina".

 

O GPT-4M, o predecessor avançado da OpenAI, foi treinado em dados que combinam imagens e texto, capacitando-o a analisar imagens e texto para realizar diversas tarefas, como extrair texto de imagens ou descrever seu conteúdo. Agora, o GPT-4M adiciona capacidades de processamento de áudio à sua gama de habilidades.

 

Essa atualização traz melhorias significativas à experiência de Chatbot da OpenAI, especialmente com o ChatGPT, sua tecnologia de IA. Embora o ChatGPT já ofereça um modo de voz que converte suas respostas em texto, o GPT-4M aprimora isso, permitindo interações mais fluidas e naturais com o ChatGPT, aproximando-o de um assistente virtual.


Por exemplo, os usuários agora podem fazer perguntas ao ChatGPT com tecnologia GPT-4M e interrompê-lo enquanto ele responde. O modelo é capaz de responder em "tempo real" e até mesmo reconhecer nuances na voz do usuário, gerando respostas em "uma variedade de estilos emocionais diferentes", incluindo canto.

IA

 

Além disso, o GPT-4M também melhora as capacidades de processamento de imagem do ChatGPT. Agora, ao ser apresentado com uma imagem, seja uma foto ou uma captura de tela, o ChatGPT pode responder prontamente a perguntas relacionadas, desde questões sobre código de software até detalhes sobre roupas. Mira Murati afirma que esses recursos continuarão a evoluir. Atualmente, o GPT-4M pode traduzir menus em diferentes idiomas, mas futuramente poderá até mesmo "assistir" a eventos esportivos ao vivo e explicar as regras.


"Sabemos que esses modelos estão se tornando cada vez mais complexos, mas nosso objetivo é tornar a interação mais natural e intuitiva, para que os usuários se concentrem na colaboração com o ChatGPT, sem se preocupar com a interface", disse Murati. "Nos últimos dois anos, focamos em aprimorar a inteligência desses modelos... Esta é a primeira vez que damos um grande passo em direção à facilidade de uso".

 

Além disso, o GPT-4M é mais versátil em termos de idiomas, com melhor desempenho em cerca de 50 línguas. Na API da OpenAI e no Azure OpenAI Service da Microsoft, o GPT-4M é duas vezes mais rápido, metade do preço e tem limites de taxa mais altos do que seu antecessor, o GPT-4 Turbo.

 
Fale com nossos especialistas.
 

Aproveite para conhecer nossas soluções de atendimento: MonitChat e MonitCall!


Entre em contato agora mesmo no botão abaixo e proporcione para seus clientes um atendimento diferenciado.



3 visualizações0 comentário

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page