يُعد Whisper الخيار الأقوى لنسخ الملفات الصوتية المسجّلة، خاصةً باللغة الإنجليزية. أما Soniox فمبني للبث في الوقت الفعلي — إذ يرسل نتائج جزئية منخفضة التأخير عبر WebSocket مع وصول الكلام. إذا كنت تحتاج إلى ظهور التسميات التوضيحية بينما لا يزال الشخص يتحدث، فإن Soniox هو البنية المناسبة. يمكن الآن استخدام Whisper أيضًا في سير عمل النسخ الفوري، لكنه لا يزال يتطلب عادةً هندسة وضبطًا أكثر لتجارب التسميات الحية مقارنةً بحزمة STT أصلية للبث.

أمضى أحمد ثلاثة أيام في دمج Whisper لتسميات الاجتماعات الحية. كانت الدقة جيدة. لكن التسميات كانت تظهر بعد 2–4 ثوانٍ من كل جملة — وبحلول الوقت الذي ظهرت فيه عبارة "ما رأيك في الجدول الزمني لمكتب برلين؟" على الشاشة، كان الحديث قد انتقل إلى الميزانيات. هذه الفجوة ليست خطأً يمكن إصلاحه. إنها نتيجة لطريقة عمل بنية Whisper.

ربما رأيت Whisper يوصف بأنه المعيار الذهبي للتعرّف على الكلام مفتوح المصدر. وهذه السمعة مستحقة — في حالة الاستخدام المناسبة. يشرح هذا المقال لماذا تهم البنية أكثر من درجات المقارنة المعيارية عندما تحتاج إلى تسميات في اجتماع مباشر، ويغطي التكلفة الحقيقية لاستضافة Whisper ذاتيًا، ويمنحك إطارًا واضحًا لاتخاذ القرار وفقًا لوضعك المحدد.

أهم النقاط

كيف يختلف بناء Whisper وSoniox

Whisper: Transformer يعتمد على الدُفعات أولًا

أطلقت OpenAI نموذج Whisper في سبتمبر 2022 كنموذج ASR مفتوح المصدر ومدرّب على 680,000 ساعة من الصوت متعدد اللغات. بنيته هي Transformer من نوع encoder-decoder: يُحوَّل الصوت إلى log-Mel spectrogram، ثم يُمرَّر عبر encoder، ويُفك إلى رموز نصية عبر decoder. وتغطي ورقة Whisper الأصلية عائلة النماذج الأصلية حتى large؛ ثم أضافت تحديثات بطاقات النماذج نقاط تحقق أحدث مثل large-v3.

هذه البنية قوية للصوت النظيف. لكنها تحمل قيدًا بنيويًا: يعالج encoder نافذة صوتية ثابتة قبل أن يُخرج decoder أي شيء. نافذة Whisper الافتراضية هي 30 ثانية. عمليًا، تجمع الصوت لفترة، ثم تمرر المقطع إلى النموذج، وتتلقى النص. وتظهر النتيجة بعد اكتمال المقطع — وليس كلمة بكلمة أثناء حدوث الكلام.

تقلل أدوات التكييف الخارجية مثل faster-whisper (باستخدام الواجهة الخلفية CTranslate2) وwhisper-live هذا التأخير عبر تصغير حجم المقاطع وتداخل النوافذ. وعلى GPU مناسب مع النموذج الصغير، يمكنك خفض التأخير إلى نحو 1–2 ثانية. ومع large-v3 للحصول على دقة أفضل، توقّع حدًا أدنى بين 2–4 ثوانٍ. أما تسميات Whisper بأقل من 500 مللي ثانية فليست قابلة للتحقيق عمليًا دون التضحية بالدقة التي تجعل Whisper جديرًا بالاستخدام.

Soniox: صُمم للبث، لا كحل مُعدّل لاحقًا

Soniox هو API تجاري للتعرّف على الكلام في الوقت الفعلي، صُمم حول بنية بث. يفتح اتصال WebSocket، ويتلقى الصوت تدريجيًا، ويعيد رموزًا جزئية مع وصول الكلام — قبل اكتمال الجملة. عندما يقول شخص ما "The meeting starts at Friday—"، يكون Soniox قد أرسل بالفعل "The" و"meeting" و"starts" كرموز جزئية. ثم تُحدَّث هذه الرموز وتُثبَّت مع وصول مزيد من السياق، وهذا ما يجعل التسميات تبدو حوارية بدلًا من كونها معالجة لاحقة.

هذا ليس Whisper مع واجهة استدلال أسرع. بل هو هدف تصميم مختلف: إخراج جزئي منخفض التأخير عبر اتصال دائم، بدلًا من إخراج نهائي عالي الدقة بعد اكتمال مقطع صوتي كامل. يمكنك معرفة المزيد عن كيفية عمل Whisper على مستوى غير تقني إذا كنت جديدًا على هذا الفرق البنيوي.

الميزة OpenAI Whisper Soniox
البنية Transformer من نوع encoder-decoder (دفعات) بث WebSocket (رموز جزئية)
البث في الوقت الفعلي ممكن، لكنه ليس أصليًا للبث نعم — أصلي
زمن الاستجابة (الاستخدام المباشر) 1–3 ثوانٍ كحد أدنى (faster-whisper، GPU) نتائج جزئية منخفضة التأخير
الدقة في الإنجليزية الأفضل في فئته على الصوت النظيف قوي في الكلام الحواري
اللغات 99+ اللغات العالمية الرئيسية
تمييز المتحدثين غير مدمج (يحتاج pyannote) أصلي
النشر استضافة ذاتية أو OpenAI APIs (دفعات + وقت فعلي) API فقط (مُدار)
مفتوح المصدر نعم (Apache 2.0) لا (تجاري)
الأفضل لـ الصوت المسجّل، والمعالجة اللاحقة الاجتماعات الحية، والتسميات الفورية

الدقة: أين يتفوّق كل محرك

بالنسبة للصوت الإنجليزي النظيف المقروء — مثل البودكاست، والسرد، والمحاضرات المسجّلة بمتحدث واحد واضح — يُصنَّف Whisper large-v3 ضمن أفضل النماذج المتاحة، سواء كانت مفتوحة المصدر أو تجارية. وعلى مجموعة بيانات LibriSpeech test-clean، يحقق معدلات خطأ كلمات تنافس النسخ البشري في الكلام المقروء.

تم ضبط Soniox للكلام الحواري: تداخل الحديث، والإنجليزية بلكنات مختلفة، والمتحدثون غير الناطقين بها، والتنقل بين اللغات داخل الحديث. وقد اختار MirrorCaption هذا المحرك تحديدًا لأنه يتعامل بشكل أفضل مع أنواع الأخطاء المهمة في الاجتماعات — مثل الأسماء العلم، والمصطلحات التقنية، والمتحدثين ذوي اللكنات غير الأصلية — مقارنةً بالنماذج المعتمدة على الدُفعات التي جرى تحسينها لصوت شبيه بالكتب الصوتية.

كما أن سؤال الدقة لا ينفصل عن سؤال التأخير. فمعالجة Whisper على دفعات تمنحه السياق الكامل قبل تثبيت أي رمز، ما يساعد على الدقة في العبارات الصعبة. أما نموذج Soniox للبث فيجب أن يصدر رموزًا جزئية مع سياق غير مكتمل، ثم يصحح نفسه. في التسجيلات، تفوز الدُفعات في الدقة. أما في المحادثة الحية، فإن الانتظار 3 ثوانٍ يخلق نوعًا مختلفًا من الخطأ: التوقيت الخاطئ للرد.

وهناك ملاحظة صريحة: لم نُجرِ مواجهة مضبوطة مباشرة على نفس صوت الاجتماعات الحية. وللاطلاع على المعايير المنشورة، راجع بطاقة نموذج Whisper على GitHub. أما معايير Soniox المعلنة، فراجع soniox.com مباشرةً. كما يغطي تحليلنا الأوسع حول دقة الترجمة في الوقت الفعلي كيف تتراجع الدقة في ظروف البث عبر عدة محركات STT.

زمن الاستجابة في الوقت الفعلي: فجوة البنية

خلال تفاوض تجاري بين فريق في ساو باولو وشريك في سيول، قال المسؤول الكوري شيئًا جعل الغرفة تصمت. انتظر الجميع. لم يكن المترجم على المكالمة. وكان MirrorCaption يعمل في تبويب بالمتصفح — وظهرت الترجمة قبل أن يجد أحد وقتًا ليسأل: "ماذا قصد؟" وكان لدى الفريق وقت للرد في اللحظة نفسها.

إليك ما يعنيه "الوقت الفعلي" فعليًا عبر أساليب STT المختلفة:

هذه الفجوة البالغة 1–3 ثوانٍ هي الفرق بين قراءة سجل وبين خوض محادثة. إذا كنت تحتاج إلى المقاطعة، أو طرح سؤال توضيحي، أو التقاط دقة تفاوضية في اللحظة، فالتوقيت مهم. ويضيف MirrorCaption ترجمة قائمة على GPT فوق بث Soniox — ومع ذلك يبقى الزمن من الكلام إلى التسمية المترجمة أقل من 500 مللي ثانية.

شاهد فرق التأخير بنفسك. MirrorCaption مجاني لمدة ساعة واحدة، لمرة واحدة — من دون الحاجة إلى بطاقة ائتمان.

جرّبه في اجتماعك القادم

النشر والإعداد

تشغيل Whisper: ما الذي يتطلبه فعليًا

أوزان نموذج Whisper مجانية (Apache 2.0). لكن تشغيلها يتطلب Python 3.8+ وffmpeg وتبعيات pip. ولأي شيء يتجاوز النموذج الصغير، ستحتاج إلى GPU يدعم CUDA: إذ يحتاج large-v3 إلى نحو 10GB من VRAM. وللاستخدام الفوري، تحتاج أيضًا إلى منطق لتقسيم الصوت إلى مقاطع، وخادم WebSocket لبث الصوت من المتصفح، ومكيّف بث مثل faster-whisper أو whisper-live.

قيل لكلارا، وهي مديرة منتج تنسق بين ميونخ وطوكيو، من فريق التطوير: "فقط استخدمي Whisper، فهو مفتوح المصدر." ضغطت على رابط GitHub. ثمانية وثلاثون تبعية Python. وملاحظة عن تعريفات CUDA. وصفحة منفصلة عن ffmpeg على Windows. كانت تحتاج إلى تسميات خلال 15 دقيقة. ففتحت MirrorCaption بدلًا من ذلك — لصقت الرابط، وضغطت Start، وحصلت على تسميات حية قبل أن تبرد قهوتها.

إذا كنت مطورًا مرتاحًا مع Python والبنية السحابية، فإن استضافة Whisper ذاتيًا أمر يمكن التعامل معه. أما إذا كنت تبني منتجًا يجب أن تعمل فيه التسميات داخل متصفح المستخدم من دون تثبيت خادم، فستحتاج إلى وسيط API على أي حال. وعندها تتحول ميزة "المجاني" في المصدر المفتوح إلى تكلفة بنية تحتية.

Soniox: API أولًا، بلا بنية تحتية

Soniox هو API فقط. تقوم بالمصادقة باستخدام مفتاح، وتفتح اتصال WebSocket إلى wss://stt-rt.soniox.com/transcribe-websocket، وترسل إطارات الصوت، وتتلقى الرموز. لا أوزان نماذج محلية، ولا تجهيز GPU. ويمكن للمطور دمجه خلال فترة بعد الظهر.

أما لغير المطورين، فـ Soniox نفسه غير متاح مباشرة — فهو API للمطورين. وهنا تصبح صفحة MirrorCaption vs OpenAI Whisper ذات صلة: إذ يغلّف MirrorCaption بث Soniox داخل واجهة متصفح، لتحصل على تسميات أقل من 500 مللي ثانية من دون أي إعداد أو استضافة ذاتية أو مفاتيح API. وللاطلاع بشكل أوسع على البدائل من دون برمجة، راجع بدائل Whisper من دون كتابة كود.

واجهة OpenAI Whisper API

تقدم OpenAI نسخ Whisper عبر API بسعر $0.006/دقيقة، كما تتيح جلسات نسخ فوري لـ whisper-1. وهذا يزيل جزءًا كبيرًا من عبء البنية التحتية. أما المقايضة المتبقية فهي بنيوية وعلى مستوى المنتج: لا يزال Whisper أقوى للصوت المسجّل والمعالجة اللاحقة، بينما تكون حزمة أصلية للبث مثل Soniox عادةً الخيار الأسهل عندما يكون مطلب المنتج هو تسميات حية منخفضة التأخير.

الأسعار: "مفتوح المصدر" لا يعني مجانيًا

تفاجئ مقارنة التكلفة معظم الناس الذين يفترضون أن Whisper مجاني.

Whisper باستضافة ذاتية (100 ساعة/شهر من استخدام الاجتماعات الحية):
100 ساعة = 6,000 دقيقة من النسخ المستمر. وللتعامل مع هذا بوتيرة الاجتماعات وبشكل شبه فوري، تحتاج إلى خادم GPU يعمل أثناء اجتماعاتك — وليس مجرد مهمة دفعية. ويكلف مثيل GPU سحابي متوسط المستوى قادر على تشغيل large-v3 بسرعة عملية (مثل AWS g5.xlarge أو ما يعادله) نحو 1–2 دولار/ساعة. وعند 100 ساعة اجتماعات شهريًا: 100–200 دولار من وقت GPU وحده، إضافة إلى وقت الهندسة لبناء التكامل وصيانته.

OpenAI Whisper API (100 ساعة/شهر):
6,000 دقيقة × $0.006 = $36/شهر. سعر مناسب ومن دون إعداد من جهة الاستضافة. كما أن النسخ الفوري متاح الآن أيضًا، لكن بناء منتج تسميات حية مصقول فوقه لا يزال يتطلب عملًا أكثر من API مصمم للبث أولًا.

MirrorCaption (للمستخدم النهائي، 100 ساعة/شهر):
تغطي الخطة السنوية بسعر €29/سنة 100 ساعة (€0.29/ساعة). وتغطي الخطة مدى الحياة بسعر €49 عدد 200 ساعة كدفعة لمرة واحدة. أما للمستخدمين العرضيين، فتمنحك الفئة المجانية ساعة واحدة (لمرة واحدة) بلا تكلفة.

وبالنسبة لفريق لديه 20 ساعة من الاجتماعات متعددة اللغات شهريًا، فإن €29/سنة في MirrorCaption تعادل تقريبًا €0.12/ساعة شاملة. أما Whisper المستضاف ذاتيًا بأسعار GPU فيكلف 8–15 ضعف ذلك — قبل احتساب الوقت اللازم لبناء بنية البث وصيانتها.

€49 مرة واحدة. 200 ساعة من التسميات الحية بأكثر من 60 لغة. بلا اشتراك، وبلا بنية تحتية.

اطّلع على الأسعار

أيّهما يجب أن تختار؟

اختر Whisper إذا... اختر Soniox إذا...
كنت تنسخ ملفات صوتية مسجّلة (بودكاست، محاضرات، مقابلات) كنت تحتاج إلى تسميات بينما لا يزال الشخص يتحدث
كان محتواك يعتمد أساسًا على الإنجليزية وصوته نظيف كنت تعمل مع كلام متعدد اللغات أو بلكنات مختلفة
لديك بنية Python وGPU جاهزة كنت تحتاج إلى API مُدار من دون استضافة ذاتية
كنت تبني خط معالجة نسخ على دفعات كنت تبني أداة اجتماعات أو تسميات في الوقت الفعلي
كانت الأولوية لأقصى دقة على الصوت المسجّل كانت الأولوية لأقل زمن استجابة على الصوت المباشر

إذا كنت مستخدمًا نهائيًا — لا مطورًا يبني خط معالجة — فلا Whisper ولا Soniox متاحان مباشرة من دون طبقة واجهة مستخدم. وMirrorCaption هو هذه الطبقة بالنسبة إلى Soniox: تطبيق متصفح يمنحك بث Soniox بأقل من 500 مللي ثانية، وترجمة GPT عبر أكثر من 60 لغة، واكتشاف المتحدثين، من دون أي شيء لتثبيته. واطّلع على دليلنا لأفضل برامج تحويل الكلام إلى نص في 2026 لمقارنة أوسع بين أدوات المستخدم النهائي.

لماذا يستخدم MirrorCaption Soniox

بُني MirrorCaption حول STT المتدفق من Soniox لأن حالة الاستخدام تتطلب ذلك. ففي الاجتماع المباشر، يُعد تأخير 3 ثوانٍ تجربة معطلة — فالترجمة التي تظهر بعد انتقال المتحدث إلى الجملة التالية ليست تسمية، بل سجلًا متأخرًا. وقد اخترنا Soniox تحديدًا لأنه صُمم للبث منذ البداية، لا لأنه عُدّل ليتلاءم معه لاحقًا.

وفوق بث Soniox، يضيف MirrorCaption تحسينًا للترجمة قائمًا على GPT لدعم أكثر من 60 لغة، ومفاتيح API مؤقتة مشفرة بـ AES-GCM (مدة صلاحية 2 ثانية، وتُصدر عبر Supabase Edge Function) حتى لا يمر صوتك عبر خوادمنا باستخدام بيانات اعتماد دائمة. والبنية واضحة لأن الثقة تتطلب تفاصيل: نحن نستخدم Soniox STT وOpenAI GPT. وليس "محركًا عصبيًا احتكاريًا".

الأسئلة الشائعة

هل يعمل Whisper في الوقت الفعلي؟

جزئيًا. تتيح OpenAI الآن النسخ الفوري لـ whisper-1، كما يمكن للمكيّفات المستضافة ذاتيًا دفع Whisper ليقترب أكثر من الاستخدام المباشر. لكن عائلة النماذج لا تزال أقوى في الصوت المسجّل والمعالجة اللاحقة منها في التسميات فائقة الانخفاض في التأخير. وإذا كنت تحتاج إلى تسميات تواكب المحادثة الحية بشكل موثوق، فإن محركًا أصليًا للبث مثل Soniox يظل الخيار الأبسط.

هل Soniox أدق من Whisper؟

في معايير الإنجليزية النظيفة المقروءة المنشورة (LibriSpeech)، يتصدر Whisper large-v3. أما في الكلام الحواري مع اللكنات، والتنقل بين اللغات، وظروف الاجتماعات الحية، فتضيق الفجوة ويصبح ضبط Soniox للمحادثات ميزة. لا توجد إجابة واحدة — فالمقارنة الصحيحة هي ما يفعله كل محرك مع صوتك أنت تحديدًا، لا مع مجموعة بيانات معيارية. ولمزيد من التعمق، راجع تحليلنا حول دقة الترجمة في الوقت الفعلي.

هل يمكنني استخدام Whisper لتسميات الاجتماعات الحية؟

نعم، لكن مع إعداد كبير. ستحتاج إلى مكيّف بث (faster-whisper أو whisper-live)، وخادم WebSocket لاستقبال صوت المتصفح، وGPU قادر على الاستدلال السريع. توقّع تأخيرًا بين 1–3 ثوانٍ في أفضل الأحوال مع النموذج الصغير على GPU مناسب. وبالنسبة لمعظم الفرق، فإن العبء الهندسي وتكلفة البنية التحتية يفوقان وصف "المجاني"، خاصةً مقارنةً بواجهات API المُدارة للبث أو أدوات مثل MirrorCaption.

ما أرخص طريقة للحصول على تعرّف على الكلام في الوقت الفعلي؟

تمنحك الفئة المجانية من MirrorCaption ساعة واحدة (لمرة واحدة) من التسميات المتدفقة المدعومة من Soniox مع الترجمة — من دون بطاقة ائتمان ومن دون تثبيت. وبالنسبة للتقييم العرضي، فهذا يغطي معظم المستخدمين. أما للاستخدام المستمر، فإن الخطة السنوية بسعر €29/سنة (100 ساعة) تعادل €0.29/ساعة، وهو أقل من Whisper المستضاف ذاتيًا على GPU سحابي عند أي حجم اجتماعات فعلي.

ما محرك STT الذي يستخدمه MirrorCaption؟

يستخدم MirrorCaption بث Soniox WebSocket STT للنسخ وOpenAI GPT لتحسين الترجمة وملخصات الاجتماعات. وتُصدر مفاتيح Soniox API المؤقتة بمدة صلاحية 2 ثانية عبر Supabase Edge Function — ويتدفق صوتك مباشرةً من متصفحك إلى خوادم Soniox ولا يُخزَّن على بنية MirrorCaption.

الخلاصة: يخدم Soniox وWhisper حالتي استخدام أساسيتين مختلفتين. Whisper هو الخيار الصحيح للنسخ الدفعي عالي الدقة للملفات المسجّلة. أما Soniox فهو الخيار الصحيح عندما يكون زمن الاستجابة أهم من الدقة المثالية خارج الاتصال — وهذا ينطبق على كل اجتماع مباشر.

جرّب تسميات مدعومة من Soniox مجانًا

يمنحك MirrorCaption بث Soniox + ترجمة GPT في تبويب متصفح. ساعة مجانية واحدة (لمرة واحدة). بلا تثبيت. يعمل في أي مكالمة فيديو أو محادثة وجهًا لوجه.

افتح MirrorCaption مجانًا