Przejdź do głównej treści
Azure Speech to provider syntezy mowy Azure AI Speech. W OpenClaw syntetyzuje wychodzące audio odpowiedzi domyślnie jako MP3, natywne Ogg/Opus dla notatek głosowych oraz audio mulaw 8 kHz dla kanałów telefonicznych, takich jak Voice Call. OpenClaw używa bezpośrednio Azure Speech REST API z SSML i wysyła należący do providera format wyjściowy przez X-Microsoft-OutputFormat.
SzczegółWartość
Strona internetowaAzure AI Speech
DokumentacjaSpeech REST text-to-speech
UwierzytelnianieAZURE_SPEECH_KEY plus AZURE_SPEECH_REGION
Domyślny głosen-US-JennyNeural
Domyślny plik wyjściowyaudio-24khz-48kbitrate-mono-mp3
Domyślny plik notatki głosowejogg-24khz-16bit-mono-opus

Pierwsze kroki

1

Utwórz zasób Azure Speech

W portalu Azure utwórz zasób Speech. Skopiuj KEY 1 z Resource Management > Keys and Endpoint oraz skopiuj lokalizację zasobu, na przykład eastus.
AZURE_SPEECH_KEY=<speech-resource-key>
AZURE_SPEECH_REGION=eastus
2

Wybierz Azure Speech w messages.tts

{
  messages: {
    tts: {
      auto: "always",
      provider: "azure-speech",
      providers: {
        "azure-speech": {
          voice: "en-US-JennyNeural",
          lang: "en-US",
        },
      },
    },
  },
}
3

Wyślij wiadomość

Wyślij odpowiedź przez dowolny podłączony kanał. OpenClaw syntetyzuje audio za pomocą Azure Speech i dostarcza MP3 dla standardowego audio lub Ogg/Opus, gdy kanał oczekuje notatki głosowej.

Opcje konfiguracji

OpcjaŚcieżkaOpis
apiKeymessages.tts.providers.azure-speech.apiKeyKlucz zasobu Azure Speech. Zapasowo używa AZURE_SPEECH_KEY, AZURE_SPEECH_API_KEY lub SPEECH_KEY.
regionmessages.tts.providers.azure-speech.regionRegion zasobu Azure Speech. Zapasowo używa AZURE_SPEECH_REGION lub SPEECH_REGION.
endpointmessages.tts.providers.azure-speech.endpointOpcjonalne nadpisanie endpointu/base URL Azure Speech.
baseUrlmessages.tts.providers.azure-speech.baseUrlOpcjonalne nadpisanie base URL Azure Speech.
voicemessages.tts.providers.azure-speech.voiceAzure voice ShortName (domyślnie en-US-JennyNeural).
langmessages.tts.providers.azure-speech.langKod języka SSML (domyślnie en-US).
outputFormatmessages.tts.providers.azure-speech.outputFormatFormat wyjściowy pliku audio (domyślnie audio-24khz-48kbitrate-mono-mp3).
voiceNoteOutputFormatmessages.tts.providers.azure-speech.voiceNoteOutputFormatFormat wyjściowy notatki głosowej (domyślnie ogg-24khz-16bit-mono-opus).

Uwagi

Azure Speech używa klucza zasobu Speech, a nie klucza Azure OpenAI. Klucz jest wysyłany jako Ocp-Apim-Subscription-Key; OpenClaw wyprowadza https://<region>.tts.speech.microsoft.com z region, chyba że podasz endpoint lub baseUrl.
Używaj wartości ShortName głosu Azure Speech, na przykład en-US-JennyNeural. Bundlowany provider może listować głosy przez ten sam zasób Speech i filtruje głosy oznaczone jako deprecated lub retired.
Azure akceptuje formaty wyjściowe takie jak audio-24khz-48kbitrate-mono-mp3, ogg-24khz-16bit-mono-opus i riff-24khz-16bit-mono-pcm. OpenClaw żąda Ogg/Opus dla celów voice-note, aby kanały mogły wysyłać natywne dymki głosowe bez dodatkowej konwersji MP3.
azure jest akceptowane jako alias providera dla istniejących PR i konfiguracji użytkowników, ale nowa konfiguracja powinna używać azure-speech, aby uniknąć pomyłek z providerami modeli Azure OpenAI.

Powiązane

Synteza mowy

Przegląd TTS, providerzy i konfiguracja messages.tts.

Konfiguracja

Pełne odniesienie do konfiguracji, w tym ustawienia messages.tts.

Providerzy

Wszystkie bundlowane providery OpenClaw.

Rozwiązywanie problemów

Typowe problemy i kroki debugowania.