Files
Generadordeguiones/backend/lib/transcriptor.js
Hanzo_dev 4aecbef343 fix: corregir FUNCTION_INVOCATION_FAILED y audio m4a de Instagram
- vercel.json: revertir maxDuration a 60s (300 rompe planes Hobby)
- transcriptor: detectar extensión real del audio (TikTok→mp3,
  Instagram→m4a) para enviar el MIME type correcto a Whisper;
  enviarlo como mp3 cuando es m4a causaba fallo de decodificación

Co-Authored-By: Claude Sonnet 4.6 <noreply@anthropic.com>
2026-04-01 10:23:01 -05:00

63 lines
2.4 KiB
JavaScript

// ============================================================
// TRANSCRIPTOR — OpenAI Whisper
// Descarga el audio desde la URL y lo transcribe
// Incluye reintentos automáticos para URLs de CDN inestables
// ============================================================
import OpenAI, { toFile } from 'openai'
const openai = new OpenAI({ apiKey: process.env.OPENAI_API_KEY })
/**
* Descarga una URL con reintentos (para CDNs que expiran o fallan transitoriamente)
* @param {string} url
* @param {number} intentos Máximo de intentos (default: 3)
* @returns {Response}
*/
async function fetchConReintentos(url, intentos = 3) {
let ultimoError
for (let i = 1; i <= intentos; i++) {
try {
const res = await fetch(url)
if (res.ok) return res
ultimoError = new Error(`HTTP ${res.status} al descargar audio (intento ${i}/${intentos})`)
} catch (err) {
ultimoError = err
}
if (i < intentos) await new Promise(r => setTimeout(r, 1200 * i)) // backoff: 1.2s, 2.4s
}
throw ultimoError
}
/**
* @param {string} audioUrl URL directa del MP3 (de Social Download API)
* @param {string} idioma Código de idioma: 'es', 'en', 'pt', etc.
* @returns {string} Transcripción completa del audio
*/
export async function transcribir(audioUrl, idioma = 'es') {
const audioResponse = await fetchConReintentos(audioUrl)
// En Vercel Serverless (Node < 20), Web API `File` no está disponible por defecto,
// y `arrayBuffer` consume mucha RAM. `toFile` soluciona ambos.
// Detectar extensión real del audio (TikTok→mp3, Instagram→m4a, etc.)
const ext = audioUrl.split('?')[0].split('.').pop()?.toLowerCase() || 'mp3'
const mimeMap = { mp3: 'audio/mpeg', m4a: 'audio/mp4', mp4: 'audio/mp4', webm: 'audio/webm', ogg: 'audio/ogg', wav: 'audio/wav' }
const mimeType = mimeMap[ext] || 'audio/mpeg'
const audioFile = toFile(audioResponse, `audio.${ext}`, { type: mimeType })
const transcripcion = await openai.audio.transcriptions.create({
file: audioFile,
model: 'whisper-1',
language: idioma === 'otro' ? undefined : idioma, // auto-detect si es 'otro'
response_format: 'text',
})
if (!transcripcion || transcripcion.trim().length < 10) {
throw new Error(
'Whisper no detectó voz suficiente en el audio. ' +
'Verifica que el video tenga narración clara (no solo música o texto en pantalla).'
)
}
return transcripcion.trim()
}