Publicado 02/03/2023 11:20

Open AI lanza la API de ChatGPT y de Whisper para poder integrar estas herramientas en las 'apps' de los desarrolladores

Ilustración de un chatbot
Ilustración de un chatbot - PIXABAY

   MADRID, 2 Mar. (Portaltic/EP) -

   Open AI ha anunciado que ya está disponible la interfaz de programación de aplicaciones (API) para ChatGPT y Whisper, con la que los desarrolladores podrán integrar el chatbot y su tecnología de conversión de voz a texto impulsados por Inteligencia Artificial (IA) en sus aplicaciones y servicios.

    El chatbot ChatGPT es una herramienta de IA conversacional que es capaz de chatear con los usuarios, responder sus preguntas y responder en formato de texto desarrollado. Esta herramienta ha sorprendido a los usuarios por la naturaleza de sus respuestas y su capacidad para generar y enlazar ideas.

   Ahora, la compañía ha anunciado en un comunicado en su página web la llegada de la API para los desarrolladores, que tendrán acceso a la nueva familia de modelos llamada gpt-3.5-turbo. En este sentido, Open AI define gpt-3.5-turbo como "el mejor modelo para muchos casos que no son de chat", con lo que hace referencia a que la API de ChatGPT se podrá usar para más funciones además de para crear una interfaz conversacional impulsada por IA.

   Asimismo, tal y como especifica Open AI, gpt-3.5-turbo tiene un precio de 0,002 dólares por 1.000 tokens. Se trata de un precio diez veces más barato que sus modelos GPT-3.5 existentes. Este descenso se basa en "una serie de optimizaciones en todo el sistema" con las que han logrado una reducción de costes del 90 por ciento.

   Los tokens se utilizan para pagar el uso de la red neuronal de OpenAI, según explica la compañía. Se pueden considerar como "piezas de palabras"; antes de que la API procese las solicitudes, las divide en tokens para medir cuánto se está utilizando en palabras.

   Por ejemplo, un token equivale a cuatro caracteres en inglés. No obstante, la empresa también proporciona la herramienta 'Tokenizer' para verificar cuántos tokens se necesitarán para interpretar una cadena de texto.

   Asimismo, la API de ChatGPT también ofrece instancias dedicadas para los desarrolladores. En concreto, la API de Open AI se ejecuta en Azure y, con las instancias dedicadas, los desarrolladores pagarán por un periodo de tiempo en una asignación de infraestructura informática reservada para atender sus solicitudes.

   De esta forma, podrán elegir la capacidad dedicada para ChatGPT en caso de que prevean ejecutar una gran cantidad de datos a través de la API. En concreto la compañía lo recomienda para los desarrolladores que ejecutan más de 450 millones de tokens por día. Esta opción también ofrece un control más profundo sobre la versión específica del modelo y el rendimiento del sistema, según detalla la compañía.

   Igualmente, los desarrolladores recibirán "mejoras continuas" en el modelo y Open AI ha asegurado que escuchará "atentamente" los comentarios de los desarrolladores para "satisfacer mejor sus necesidades".

   Algunas empresas ya han implementado la API de ChatGPT para sus productos como Snapchat, que presentó el pasado lunes My AI para Snapchat +. De esta forma, la red social facilita a los usuarios un chatbot personalizable que ofrece recomendaciones o incluso planea itinerarios de excursiones.

   La compañía de Inteligencia Artificial también ofrece una API para su modelo de conversión de voz a texto Whisper. Los desarrolladores podrán utilizarla para transcripciones o traducciones de audio con un coste de 0,006 dólares por minuto. Concretamente, el modelo que incluye la API es Whisper large-v2 de código abierto con el que se obtendrán resultados "mucho más rápidos y rentables".

   Según informa Open AI, la API de Whisper está disponible a través de sus puntos finales 'transcriptions', que transcribe en el idioma de origen, o 'translations' que transcribe al inglés. Asimismo, acepta una amplia variedad de formatos m4a, mp3, mp4, mpeg, mpga, wav y webm.

CAMBIOS EN LAS POLÍTICAS DE OPEN AI

   La empresa de IA también ha anunciado cambios en sus políticas. Según ha indicado, ya no utilizará los datos enviados a través de la API para entrenar sus modelos "a menos que la organización opte por participar".

Igualmente, Open AI también asegura que está trabajando para mejorar sus tiempos de actividad y que la prioridad de su equipo de ingeniería es "la estabilidad de los casos de uso de producción".