OpenAI Whisper هو نموذج مجاني ومفتوح المصدر لتحويل الكلام إلى نص، ويحوّل الصوت المنطوق إلى نص مكتوب عبر 99 لغة. لتشغيله، تحتاج إلى تثبيت Python على جهازك، ومكتبة إضافية واحدة على الأقل تُسمى ffmpeg، وما بين 150 ميغابايت و3 غيغابايت من مساحة التخزين الحرة بحسب مستوى الجودة الذي تريده. وهو لا ينسخ الكلام في الوقت الفعلي. هذه هي الحقائق التي تميل النشرات المتحمسة إلى تجاهلها.
تدير بريا شراكات شركة fintech في سنغافورة. في أوائل 2026، قرأت أن Whisper يمكنه الوصول إلى "دقة تفريغ بمستوى بشري" وأنه مجاني بالكامل. وجدت صفحة GitHub، وتصفحت التعليمات سريعًا، وشعرت بتفاؤل شخص لم يصادف بعد عبارة "pip install ffmpeg". بعد ثلاث ساعات، واجهت خطأ غامضًا في توافق CUDA، ولم تحصل على أي نص، واضطرت إلى تدوين بقية ملاحظات الاجتماع يدويًا. الأداة ممتازة فعلًا. لكنها ببساطة صُممت لشخص مختلف عن بريا.
تم تصميم Whisper للمطورين والباحثين. وهذا لا يجعله أداة سيئة — بل يجعله الأداة غير المناسبة للأشخاص الذين يريدون فقط تفريغ اجتماع المتابعة يوم الخميس باللغة المندرينية من دون كتابة سطر واحد من الشيفرة.
تشرح هذه المقالة كيف يعمل OpenAI Whisper فعليًا بلغة بسيطة، وما الذي يجيده، وما الذي لا يمكنه فعله من الأساس، وأي الخيارات تكون أكثر منطقية إذا كنت تحتاج إلى تفريغ مباشر للاجتماعات اليوم.
- OpenAI Whisper هو نموذج مجاني ومفتوح المصدر لتحويل الكلام إلى نص، أُطلق في سبتمبر 2022، وتم تدريبه على 680,000 ساعة من الصوت من الويب.
- يدعم 99 لغة ويصل إلى دقة قريبة من البشر في الإنجليزية — بمعدل خطأ كلمات يقارب 2–3% في التسجيلات النظيفة.
- Whisper لا يعمل في الوقت الفعلي. فهو يعالج الصوت على شكل مقاطع مدتها 30 ثانية بعد اكتمال التسجيل، وليس أثناء حديث الشخص.
- تشغيله محليًا يتطلب Python 3.9+ وffmpeg وملف نموذج يتراوح بين 75 ميغابايت و3 غيغابايت. وتزداد الدقة والسرعة معًا.
- للحصول على تفريغ مباشر للاجتماعات من دون برمجة، تحتاج إلى تقنية streaming speech-to-text — وهي بنية مختلفة لم يُصمم Whisper لتقديمها.
ما هو OpenAI Whisper؟
OpenAI Whisper هو نموذج للتعرف على الكلام أُطلق كمشروع مفتوح المصدر في سبتمبر 2022. درّبته OpenAI على 680,000 ساعة من الصوت المجمّع من الإنترنت — محاضرات، وبودكاست، ومقابلات، وفيديوهات YouTube، وكتب صوتية — عبر عشرات اللغات. ويُعد حجم بيانات التدريب هذا جزءًا كبيرًا من سبب دقته العالية.
يمكنه القيام بأمرين: التفريغ النصي، أي تحويل الصوت إلى نص باللغة نفسها، والترجمة، أي تحويل الصوت بلغة أجنبية إلى نص إنجليزي. لاحظ أنه يترجم إلى الإنجليزية فقط، وليس بين أي زوج لغات بشكل عام.
يمكنك الوصول إلى Whisper بطريقتين. الأولى: تنزيل أوزان النموذج مجانًا من GitHub وتشغيله على أجهزتك الخاصة — من دون تكاليف API أو حدود استخدام، لكنك تتولى الإعداد بنفسك. الثانية: استخدام OpenAI Whisper API بسعر $0.006 لكل دقيقة صوت، ما يزيل معظم عبء الإعداد لكنه لا يزال يعالج الصوت كملف يتم رفعه بدلًا من بث مباشر.
إذا كنت تحتاج إلى شيء يعمل من دون سطر أوامر، فانتقل مباشرة إلى قسم الخيارات من دون برمجة. وإذا كنت تريد فهم سبب عمل Whisper بهذه الطريقة، فتابع القراءة — لأن ذلك مهم لفهم ما يمكنه وما لا يمكنه فعله.
كيف يعمل OpenAI Whisper — شرح مبسط خطوة بخطوة
لا تحتاج إلى فهم الرياضيات لاستخدام Whisper بفعالية. لكن فهم الخطوات الأربع التي يتبعها يساعد في توضيح سبب القيود التي لديه.
الخطوة 1: يدخل الصوت كملف
تعطي Whisper ملفًا صوتيًا مسجلًا — MP3 أو WAV أو M4A أو معظم الصيغ الشائعة الأخرى. وهو لا يستطيع قراءة بث مباشر من الميكروفون بشكل افتراضي. يبقى الصوت على القرص بانتظار المعالجة.
الخطوة 2: يحوّل Whisper الصوت إلى بصمة مرئية
يحوّل Whisper الموجة الصوتية إلى mel spectrogram — ويمكنك اعتباره خريطة حرارية للصوت، حيث يمثل المحور الأفقي الزمن ويُظهر المحور العمودي الترددات الموجودة في كل لحظة. يبدو الكلام مختلفًا عن الموسيقى، وكلاهما مختلف عن ضوضاء الخلفية. وهذا التمثيل المرئي هو ما يقرأه الذكاء الاصطناعي فعليًا.
الخطوة 3: يقرأ نموذج الذكاء الاصطناعي البصمة ويتنبأ بالكلمات
يقرأ نموذج transformer — وهو النوع نفسه من البنية الذي يقوم عليه GPT — المخطط الطيفي ويتنبأ بالتسلسل الأكثر احتمالًا للكلمات. يقوم جزء من النموذج بترميز نمط الصوت؛ ويقوم جزء آخر بفك ترميزه إلى نص، رمزًا تلو الآخر. ويستخدم المفكك السياق من الأجزاء السابقة من الصوت لتحسين التنبؤات أثناء التقدم.
الخطوة 4: يخرج النص مع علامات الترقيم والأحرف الكبيرة
يُخرج Whisper نصًا منسقًا مع علامات ترقيم واستخدام للأحرف الكبيرة مناسب للجمل ومطبق مسبقًا. فتحصل على نص قابل للاستخدام، لا كتلة من الكلمات الصغيرة المتصلة.
نافذة الـ30 ثانية — ولماذا تهم. يقسم Whisper الصوت إلى مقاطع مدتها 30 ثانية ويعالجها بالتتابع. وهذا الأسلوب القائم على المقاطع هو السبب الأساسي في أن Whisper لا يستطيع بث التسميات التوضيحية المباشرة. لا توجد نتيجة جزئية بعد كل كلمة. توجد فقط نتيجة مكتملة بعد انتهاء معالجة كل مقطع مدته 30 ثانية. وفي اجتماع مدته 60 دقيقة، يعني ذلك أنك تتلقى أول نص جزئي بعد 30 ثانية من انتهاء المكالمة — والنص الكامل فقط بعد اكتمال جميع المقاطع.
ما الذي يجيده Whisper؟
ضمن حدود تصميمه، يُعد Whisper مثيرًا للإعجاب فعلًا.
- دقة قريبة من البشر في الإنجليزية. يحقق نموذج large-v3 معدل خطأ كلمات يقارب 2–3% في المعايير القياسية — وهو مستوى يقارب عمل المفرغين البشريين المحترفين على الصوت النظيف. وللمقارنة، كانت أنظمة التعرف على الكلام الاستهلاكية الأقدم تسجل معدلات خطأ بين 10–15%.
- 99 لغة. المندرينية، والكانتونية، واليابانية، والكورية، والعربية، والهندية، والروسية، والبرتغالية، والإسبانية، والألمانية، والفرنسية، وعشرات غيرها. يسرد ملف Whisper GitHub README مجموعة اللغات الكاملة مع معايير الدقة لكل لغة.
- تحمل قوي للهجات. لأنه تدرب على صوت ويب واقعي لا على كلام بجودة استوديو، فإن Whisper يتعامل مع اللهجات غير الأصلية بشكل أفضل من كثير من أنظمة ASR الأقدم المضبوطة على مجموعات بيانات ضيقة.
- ترقيم تلقائي. الفواصل والنقاط واستخدام الأحرف الكبيرة مضمّنة. ومعظم أدوات التفريغ الدفعي المنافسة تتطلب خطوة معالجة لاحقة منفصلة لهذا.
- مصطلحات تقنية. يتعامل Whisper مع المصطلحات المتخصصة — الطبية والقانونية والبرمجية — بشكل أفضل من أنظمة التعرف على الكلام الاستهلاكية العامة.
- مجاني بالكامل للاستخدام. أُطلقت أوزان النموذج تحت ترخيص MIT، الذي يسمح بالاستخدام التجاري. ويمكنك معالجة عدد غير محدود من التسجيلات بحسب ما تسمح به أجهزتك وبتكلفة هامشية صفرية.
إذا كانت الأولوية لديك هي الدقة بعد التسجيل على ملف صوتي محفوظ، فمن الصعب التفوق على Whisper. فهو الأداة المناسبة لتفريغ المقابلات المسجلة، وحلقات البودكاست، والمحاضرات، أو أي صوت قمت بالتقاطه مسبقًا.
ما الذي لا يستطيع Whisper فعله — الجزء الذي لا يشرحه أحد
معظم المقالات عن Whisper يكتبها مطورون لمطورين. يذكرون القيود مرورًا. وهنا تحصل على الاهتمام الذي تستحقه.
لا يفرغ الكلام في الوقت الفعلي
إذا بدأت مكالمة Zoom ووجهت Whisper إليها، فستتلقى النص بعد انتهاء المكالمة — وليس أثناء حدوثها. ويتراوح التأخير بين التحدث ورؤية النص من بضع ثوانٍ للمقاطع القصيرة إلى عدة دقائق للاجتماعات الطويلة، بحسب أجهزتك وحجم النموذج.
هذا ليس خطأ برمجيًا. بل هو خيار تصميم. تأتي دقة Whisper جزئيًا من معالجة كل مقطع صوتي ضمن سياقه الكامل. أما التفريغ المباشر فيتطلب إرسال نتائج جزئية فورًا، قبل توفر السياق. وينطوي النهجان على مفاضلة أساسية، وقد بُني Whisper لتعظيم الدقة لا لتقليل زمن التأخير.
لا يستطيع معرفة من يتحدث
بشكل افتراضي، ينتج Whisper نصًا مسطحًا غير معنون. تظهر كل جملة في كتلة متصلة من دون أي إشارة إلى أي مشارك قال ماذا. في مكالمة مبيعات بين شخصين، لن تعرف أي السطور كانت لك وأيها كانت للعميل المحتمل. وفي اجتماع متابعة من عشرة أشخاص، يكون الناتج بلا نسب إطلاقًا.
توجد إضافات مفتوحة المصدر (وأشهرها pyannote.audio) تضيف تمييز المتحدثين فوق Whisper. وهي تعمل بشكل معقول، لكنها تتطلب حزم Python إضافية، وتنزيل نماذج، وإعدادات. ويكاد وقت الإعداد يتضاعف.
تشغيله محليًا يتطلب إعدادًا تقنيًا
لاستخدام Whisper على جهازك، تحتاج إلى:
- تثبيت Python 3.9 أو أحدث بشكل صحيح
- مكتبة الصوت ffmpeg (تثبيت منفصل على معظم أنظمة التشغيل)
- ملف أوزان النموذج: 75 ميغابايت لـ "tiny"، و1.5 غيغابايت لـ "medium"، و3 غيغابايت لـ "large-v3"
- وحدة GPU حديثة إذا كنت تريد سرعة معقولة — إذ يستغرق النموذج الكبير من 20 إلى 40 دقيقة لمعالجة ساعة واحدة من الصوت على معالج لابتوب نموذجي
يقود ميغيل فريق نجاح عملاء مكوّنًا من 12 شخصًا في شركة ناشئة في برشلونة. يتعامل فريقه مع مكالمات بالإسبانية والكتالونية والإنجليزية. في يناير 2026، طلب من المطور الرئيسي لديه "إعداد Whisper للفريق". أمضى المطور عطلة نهاية أسبوع كاملة في تثبيت الاعتماديات، وواجه تعارضًا في إصدار CUDA استغرق أربع ساعات لحله، ثم بنى واجهة رفع صغيرة حتى يتمكن الزملاء من إرسال التسجيلات من دون لمس الطرفية. إجمالي وقت الإعداد: نحو 14 ساعة من العمل الهندسي. الأداة تعمل الآن جيدًا. وميغيل ممتن لذلك. لكنه يقر أيضًا بأن معظم الفرق لا تملك مطورًا لديه عطلة نهاية أسبوع فارغة ليقضيها على هذا الأمر.
واجهة OpenAI API أسهل — لكنها لا تزال غير مباشرة
تزيل OpenAI Whisper API مشكلة التثبيت المحلي. ترسل ملفًا صوتيًا إلى خوادم OpenAI عبر طلب HTTP بسيط وتتلقى النص في المقابل، عادة خلال ثوانٍ للمقاطع القصيرة. التكلفة هي $0.006 للدقيقة — أي أن تفريغ اجتماع مدته 60 دقيقة يكلف نحو $0.36.
وهذا يخفض العائق التقني بشكل كبير. لكن الـ API لا تزال نموذج رفع ملفات، لا بثًا مباشرًا. ترسل التسجيل المكتمل بعد انتهاء المكالمة. ويصل النص بعد ذلك بقليل. وإذا كان هدفك قراءة التسميات أثناء استمرار الشخص في الكلام، فإن الـ API لا تغيّر هذا القيد الأساسي.
أحجام نماذج Whisper بنظرة سريعة
يتوفر Whisper بخمس درجات جودة. النماذج الأكبر أدق لكنها أبطأ وأثقل. وعلى لابتوب استهلاكي نموذجي من دون GPU، يكون نموذج "small" عادة الحد العملي الأعلى من حيث السرعة.
| النموذج | حجم الملف | سرعة CPU (مقارنة بالصوت) | الأفضل لـ |
|---|---|---|---|
| tiny | 75 MB | ~10× أسرع | اختبارات سريعة، عروض توضيحية |
| base | 150 MB | ~7× أسرع | استخدام عادي، تكرار سريع |
| small ★ | 490 MB | ~4× أسرع | توازن جيد بين الجودة والسرعة على أجهزة اللابتوب |
| medium | 1.5 GB | ~2× أسرع | دقة أعلى، يُنصح باستخدام GPU |
| large-v3 | 3 GB | ~1× (في الوقت الفعلي على GPU) | أقصى دقة، ويتطلب GPU للاستخدام العملي |
ابدأ بـ "small" إذا كنت تختبر على لابتوب. وانتقل إلى "large-v3" إذا كان لديك GPU من NVIDIA متوافق وتحتاج إلى أفضل دقة للصوت غير الإنجليزي. الفرق في الدقة بين small وlarge-v3 ملحوظ. أما الفرق في وقت المعالجة على CPU فهو كبير جدًا.
كيفية استخدام Whisper من دون كتابة شيفرة
توجد ثلاثة خيارات عملية لغير المطورين، وكل منها يقدم مفاضلة مختلفة بين الجهد والتكلفة والتوقيت.
الخيار 1: OpenAI Whisper API
ارفع ملفك الصوتي عبر واجهة OpenAI أو عبر عميل HTTP بدون برمجة مثل Postman. ستحصل على نص نظيف خلال ثوانٍ إلى دقائق بحسب الطول. التكلفة: $0.006/دقيقة. وهذا هو المسار الأقل احتكاكًا إذا كانت لديك تسجيلات متفرقة ولا تريد تثبيت أي شيء. الجانب السلبي: ما زلت تعالج التسجيلات بعد وقوعها، لا تلتقط الكلام مباشرة.
الخيار 2: تطبيقات سطح المكتب المبنية على Whisper
قام عدة مطورين بتغليف Whisper داخل واجهة قابلة للنقر. يتيح لك MacWhisper (لأجهزة Mac فقط) وBuzz (متعدد المنصات، مجاني) سحب ملف صوتي والحصول على نص من دون فتح الطرفية. وهذه الأدوات مفيدة فعلًا لتفريغ ما بعد المكالمة. لكنها تشترك في القيد البنيوي نفسه — لا تسميات مباشرة، ولا تمييز للمتحدثين من دون إعداد إضافي.
الخيار 3: أدوات بث عبر المتصفح للاجتماعات المباشرة
إذا كان هدفك قراءة التسميات أثناء حدوث المحادثة — لا استرجاع نص بعد انتهائها — فأنت تحتاج إلى نهج مختلف تمامًا. الأدوات المعتمدة على المتصفح والتي تستخدم streaming speech-to-text تلتقط الصوت من الميكروفون أو من تبويب المتصفح وترسل نتائج جزئية كلمة بكلمة أثناء حديث الأشخاص. لا تثبيت، لا Python، ولا انتظار للمعالجة اللاحقة.
تشمل هذه الفئة أدوات مثل بدائل Whisper المصممة للمستخدمين غير التقنيين، والتي تستبدل بعض دقة Whisper بعد الحدث بالفورية التي تتطلبها المحادثات المباشرة. والاختيار بينها لا يتعلق بأيها "أفضل" — بل بما إذا كنت تحتاج إلى تفريغ لاجتماع أو أثناء اجتماع.
Whisper مقابل تفريغ الاجتماعات المباشر — بنيتان مختلفتان
لفهم سبب عدم قدرة Whisper على بث التسميات المباشرة، يجب فهم الفرق بين batch وstreaming speech-to-text.
Whisper هو نموذج batch. ينتظر اكتمال مقطع صوتي، ثم يعالجه ضمن سياقه الكامل، ثم يعيد النتيجة. وتأتي ميزة الدقة من هذا السياق الكامل: إذ يمكن للنموذج رؤية نهاية الجملة قبل تأكيد ما قالته بدايتها. الأمر يشبه قراءة فقرة مرتين قبل تلخيصها.
أما streaming speech-to-text فيعمل بشكل مختلف. فهو يرسل نتائج جزئية فور وصول كل كلمة، ثم يصححها تلقائيًا مع تراكم السياق. ويمكن لأدوات مثل MirrorCaption، المبنية على محرك STT المتدفق الخاص بنا، أن تعرض أول كلمة من التسمية خلال 300–500 ميلي ثانية من نطقها. والمقابل هو بعض الانخفاض في الدقة للكلمات الملتبسة التي كان يمكن للمعالجة الدفعية التقاطها بعد اكتمال السياق.
هذه ليست مقارنة جودة. يمكن القول إن Whisper أدق على الصوت المسجل تحديدًا لأنه يعالج سياقًا أكبر. أما STT المتدفق فيقبل عقوبة صغيرة في الدقة مقابل الفورية. وفي الاجتماعات المباشرة، الفورية هي المنتج كله.
يعمل كينجي في طوكيو لدى شركة تصنيع تبيع لعملاء أوروبيين. كانت مكالماته يوم الخميس مع فريق في ميونيخ تعتمد سابقًا على زميل ثنائي اللغة لتفسير العبارات الأساسية. وعندما غادر ذلك الزميل، بدأ كينجي باستخدام أداة تفريغ متدفقة عبر المتصفح. يقرأ التسميات الألمانية في الوقت الفعلي أثناء المكالمة. لا تنزيلات، لا Python، ولا انتظار لظهور النص بعد انتهاء الاجتماع. والفرق عن Whisper ليس في الدقة. بل في القدرة على سماع شيء وفهمه والرد عليه — وكل ذلك ضمن المكالمة نفسها التي تستغرق 60 دقيقة.
هل تحتاج إلى تسميات مباشرة لا نصوصًا بعد المكالمة؟ يوفّر MirrorCaption تفريغًا وترجمة متدفقين في أي متصفح، أثناء اجتماعك. لا حاجة إلى تثبيت.
جرّب مجانًا →الأسئلة الشائعة
هل OpenAI Whisper مجاني؟
نعم. أوزان نموذج Whisper مجانية للتنزيل والاستخدام بموجب ترخيص MIT، الذي يسمح بالتطبيقات التجارية. وتشغيل Whisper محليًا لا يكلف شيئًا سوى أجهزتك والكهرباء. أما OpenAI Whisper API فتتقاضى $0.006 لكل دقيقة صوت — أي أن تفريغ اجتماع مدته 60 دقيقة يكلف تقريبًا $0.36.
هل يمكن لـ Whisper تفريغ مكالمة Zoom في الوقت الفعلي؟
لا. يعالج Whisper الصوت على شكل مقاطع مدتها 30 ثانية بعد التقاطه. ولا يمكنه تقديم تسميات كلمة بكلمة أثناء حديث الشخص. إذا سجلت مكالمة Zoom ثم شغّلت Whisper على الملف المحفوظ، فستحصل على نص نظيف — لكن فقط بعد انتهاء الاجتماع. أما للحصول على تسميات Zoom مباشرة، فأنت تحتاج إلى أداة streaming speech-to-text، وليس Whisper. وتقارن مراجعتنا لبرامج تحويل الكلام إلى نص بين الخيارات الفورية وخيارات ما بعد الاجتماع عبر سير العمل الشائع.
ما مدى دقة OpenAI Whisper؟
يحقق Whisper large-v3 معدل خطأ كلمات يقارب 2–3% على معيار LibriSpeech القياسي للإنجليزية، وهو مستوى يقارب التفريغ البشري الاحترافي على الصوت النظيف. وتنخفض الدقة مع ضوضاء الخلفية الشديدة، أو تداخل المتحدثين، أو الكلام السريع جدًا، أو الميكروفونات منخفضة الجودة. وتكون معدلات الخطأ في اللغات غير الإنجليزية أعلى في المتوسط من الإنجليزية، رغم أنها لا تزال تتفوق على كثير من النماذج الإقليمية الأقدم. وللاطلاع بشكل أوسع على مفاضلات دقة التفريغ، راجع معايير دقة الترجمة الفورية لدينا.
هل يدعم Whisper الصينية واليابانية؟
نعم. يغطي Whisper 99 لغة، بما في ذلك الصينية المندرينية، والكانتونية، واليابانية، والكورية، والعربية، والهندية، وجميع اللغات الأوروبية الرئيسية. وبالنسبة للمندرينية والكانتونية، يقدم نموذج Whisper الكبير أداءً جيدًا على الصوت الواضح، لكنه يواجه صعوبة مع اللهجات الإقليمية القوية والتنقل بين الصينية والإنجليزية في الجملة نفسها. ولمقارنة أوسع بين الأدوات متعددة اللغات المتاحة اليوم، راجع مراجعتنا لبرامج تحويل الكلام إلى نص.
هل توجد بديل قائم على المتصفح لـ Whisper يعمل للاجتماعات المباشرة؟
نعم. تستخدم الأدوات المعتمدة على المتصفح مثل MirrorCaption تقنية streaming speech-to-text للتفريغ والترجمة في الوقت الفعلي أثناء اجتماعك — من دون Python، ولا تثبيت، ولا انتظار لانتهاء المكالمة. وهي تعمل في Chrome وSafari وEdge على أي جهاز. والمقابل مقارنةً بـ Whisper هو أن الدقة اللاحقة على تسجيل محفوظ قد تكون أقل قليلًا، لكن في المحادثات المباشرة تكون الفورية هي الهدف. ابدأ بساعة مجانية واحدة (مرة واحدة) على mirrorcaption.com/app.
الخلاصة
يُعد OpenAI Whisper أحد أدق أنظمة تحويل الكلام إلى نص التي أُتيحت للعامة على الإطلاق. وهو أيضًا من أقلها سهولة وصولًا إلى الأشخاص الذين قد يستفيدون منه أكثر من غيرهم.
إذا كان لديك ملف صوتي محفوظ ولديك بعض الصبر على الإعداد، فإن Whisper — وخاصة عبر OpenAI API — يقدم دقة تفريغ قريبة من البشر عبر 99 لغة وبتكلفة شبه معدومة. وهذا إنجاز هندسي لافت.
أما إذا كنت تحتاج إلى قراءة ما يقوله شخص ما أثناء قوله — خلال اجتماع، لا بعده — فإن بنية Whisper ليست المناسبة. توجد أدوات streaming speech-to-text لهذا الاستخدام تحديدًا. فهي تعمل في تبويب متصفح، وتبدأ خلال ثوانٍ، ولا تتطلب سطر أوامر.
السؤال ليس أي أداة أفضل. السؤال هو أي أداة تناسب متطلباتك الزمنية. وللتعرف على أفضل أدوات تحويل الكلام إلى نص في 2026 عبر جميع الاستخدامات، تغطي مراجعتنا الكاملة المشهد بالكامل.
تفريغ مباشر للاجتماعات، من دون أي إعداد
يوفّر MirrorCaption تفريغًا وترجمة كلمة بكلمة أثناء مكالمتك. يعمل في أي متصفح وعلى أي منصة مكالمات فيديو. ساعة مجانية واحدة (مرة واحدة)، من دون بطاقة ائتمان.
جرّب MirrorCaption مجانًا