انضم بعض الأشخاص إلى OpenAI ، وقام البعض بتأسيس شركات ناشئة ، وتمسك البعض الآخر باستخدام Google AI. لقد كانوا هم الذين بدأوا بشكل مشترك عصر تطوير الذكاء الاصطناعي اليوم.
من ChatGPT إلى تقنية رسم AI ، قد تكون الموجة الأخيرة من الاختراقات في مجال الذكاء الاصطناعي بفضل Transformer.
يصادف اليوم الذكرى السادسة لتقديم ورقة المحولات الشهيرة.
رابط الورق:
قبل ست سنوات ، تم تحميل ورقة تحمل اسمًا مبالغًا فيه إلى منصة arXiv الورقية المطبوعة مسبقًا. تم تكرار عبارة "xx is All You Need" من قبل المطورين في مجال الذكاء الاصطناعي ، بل إنها أصبحت اتجاهًا في عنوان الورق. ، ولم يعد Transformer هو معنى Transformers ، فهو يمثل الآن أكثر التقنيات تقدمًا في مجال الذكاء الاصطناعي.
بعد ست سنوات ، بالنظر إلى هذه الورقة في ذلك العام ، يمكننا أن نجد العديد من الأماكن المثيرة للاهتمام أو غير المعروفة ، كما لخصها Jim Fan ، عالم الذكاء الاصطناعي في Nvidia.
## ** لم يقترح مؤلف كتاب Transformer "آلية الانتباه" **
يتخلى نموذج Transformer عن وحدات CNN و RNN التقليدية ، ويتكون هيكل الشبكة بالكامل من آليات الانتباه.
على الرغم من أن اسم ورقة Transformer هو "الاهتمام هو كل ما تحتاجه" ، فإننا نواصل تعزيز آلية الانتباه بسبب ذلك ، ولكن يرجى ملاحظة حقيقة مثيرة للاهتمام: ليس باحثو Transformer هم من اخترع الانتباه ، لكنهم وضعوا هذا يتم دفع الآلية إلى أقصى الحدود.
تم اقتراح آلية الانتباه من قبل فريق بقيادة رائد التعلم العميق يوشوا بنجيو في عام 2014:
* "الترجمة الآلية العصبية عن طريق التعلم المشترك للمحاذاة والترجمة" ، العنوان بسيط نسبيًا. *
في ورقة ICLR 2015 هذه ، اقترح بنجيو وزملاؤه مزيجًا من RNN + "متجه السياق" (أي الانتباه). في حين أنها واحدة من أعظم المعالم في البرمجة اللغوية العصبية ، إلا أنها أقل شهرة من Transformer ، حيث تم الاستشهاد بورقة فريق Bengio 29000 مرة حتى الآن ، و Transformer 77000.
تم تصميم آلية الانتباه للذكاء الاصطناعي بشكل طبيعي على أساس الانتباه البصري البشري. هناك قدرة فطرية في الدماغ البشري: عندما ننظر إلى صورة ، نقوم أولاً بمسح الصورة بسرعة ، ثم نغلق المنطقة المستهدفة التي يجب التركيز عليها.
إذا لم تتخلى عن أي معلومات محلية ، فستقوم حتماً بالكثير من الأعمال غير المفيدة ، والتي لا تؤدي إلى البقاء على قيد الحياة. وبالمثل ، فإن إدخال آليات مماثلة في شبكات التعلم العميق يمكن أن يبسط النماذج ويسرع الحساب. في الأساس ، الاهتمام هو تصفية كمية صغيرة من المعلومات المهمة من كمية كبيرة من المعلومات ، والتركيز على هذه المعلومات المهمة ، متجاهلاً معظم المعلومات غير المهمة.
في السنوات الأخيرة ، تم استخدام آلية الانتباه على نطاق واسع في العديد من مجالات التعلم العميق ، مثل رؤية الكمبيوتر لالتقاط الحقول المستقبلة على الصور ، أو في البرمجة اللغوية العصبية لتحديد موقع الرموز المميزة أو الميزات. لقد أثبت عدد كبير من التجارب أن النموذج المزود بآلية الانتباه قد حقق تحسينات كبيرة في الأداء في مهام مثل تصنيف الصور ، والتجزئة ، والتتبع ، والتحسين ، والتعرف على اللغة الطبيعية ، والفهم ، والإجابة على الأسئلة ، والترجمة.
يمكن اعتبار نموذج المحولات الذي يقدم آلية الانتباه ككمبيوتر تسلسل للأغراض العامة. تسمح آلية الانتباه للنموذج بتعيين أوزان انتباه مختلفة وفقًا لارتباط المواضع المختلفة في التسلسل عند معالجة تسلسل الإدخال. التقاط التبعيات بعيدة المدى ومعلومات السياق ، وبالتالي تحسين تأثير معالجة التسلسل.
لكن في ذلك العام ، لم يتحدث المحول ولا ورقة الاهتمام الأصلية عن جهاز كمبيوتر متسلسل للأغراض العامة. بدلاً من ذلك ، يرى المؤلفون أنه آلية لحل مشكلة ضيقة ومحددة - الترجمة الآلية. لذلك عندما نتتبع أصل الذكاء الاصطناعي العام في المستقبل ، قد نتمكن من تتبعه مرة أخرى إلى ترجمة Google "غير الواضحة".
** على الرغم من أنه تم قبوله من قبل NeurIPS 2017 ، إلا أنه لم يتم الحصول عليه حتى عن طريق الفم **
على الرغم من أن ورقة Transformer مؤثرة للغاية الآن ، إلا أنها لم تحصل حتى على جائزة Oral ، ناهيك عن جائزة ، في مؤتمر الذكاء الاصطناعي الأعلى في العالم NeurIPS 2017. تلقى المؤتمر ما مجموعه 240 3 ورقة بحثية في ذلك العام ، تم اختيار 678 منها كأوراق مؤتمرات. وكانت ورقة Transformer من الأوراق المقبولة. ومن بين هذه الأوراق ، 40 ورقة شفوية ، و 112 من أوراق Spotlight ، و 3 كانت الأفضل. أوراق ، جائزة اختبار الزمن ، غاب محول عن الجائزة.
على الرغم من أنه فاتته جائزة NeurIPS 2017 الورقية ، إلا أن تأثير Transformer واضح للجميع.
علق جيم فان: ليس خطأ الحكام أنه من الصعب على الناس إدراك أهمية دراسة مؤثرة قبل أن تصبح مؤثرة. ومع ذلك ، هناك أيضًا أوراق محظوظة بما يكفي لاكتشافها في المقام الأول. على سبيل المثال ، فازت شبكة ResNet التي اقترحها He Kaiming وآخرون بأفضل ورقة بحثية من CVPR 2016 في ذلك العام. هذا البحث مستحق جيدًا وتم التعرف عليه بشكل صحيح من قبل قمة الذكاء الاصطناعي. ولكن في الوقت الحالي في عام 2017 ، قد لا يتمكن الباحثون الأذكياء جدًا من التنبؤ بالتغييرات التي أحدثتها LLM الآن. تمامًا كما حدث في الثمانينيات ، كان القليل من الناس يتوقعون تسونامي الذي أحدثه التعلم العميق منذ عام 2012.
## ** ثمانية مؤلفين حياتهم رائعة **
في ذلك الوقت ، كان هناك 8 مؤلفين لهذه الورقة ، كانوا من Google وجامعة تورنتو. بعد خمس سنوات ، غادر معظم مؤلفي الورقة المؤسسة الأصلية.
في 26 أبريل 2022 ، تم تأسيس شركة تسمى "Adept" رسميًا ، مع 9 من المؤسسين المشاركين ، بما في ذلك Ashish Vaswani و Niki Parmar ، اثنان من مؤلفي ورقة Transformer.
** حصل آشيش فاسواني ** على درجة الدكتوراه من جامعة جنوب كاليفورنيا ، تحت وصاية الباحثين الصينيين ديفيد شيانغ وليانغ هوانغ ، مع التركيز على التطبيق المبكر للتعلم العميق الحديث في نمذجة اللغة. في عام 2016 ، انضم إلى Google Brain وقاد بحث Transformer ، وترك Google في عام 2021.
** تخرجت ** Niki Parmar ** من جامعة جنوب كاليفورنيا بدرجة الماجستير وانضمت إلى Google في عام 2016. خلال عملها ، طورت بعض نماذج الإجابة على الأسئلة الناجحة ونماذج تشابه النص في بحث Google والإعلان. قادت العمل المبكر لتوسيع نموذج Transformer إلى إنشاء الصور ورؤية الكمبيوتر والمزيد. في عام 2021 ، ستترك Google أيضًا.
بعد مغادرته ، شارك الاثنان في تأسيس Adept وشغل منصب كبير العلماء (Ashish Vaswani) ورئيس قسم التكنولوجيا (Niki Parmar) على التوالي. تتمثل رؤية Adept في إنشاء AI يسمى "زميل فريق الذكاء الاصطناعي" الذي يتم تدريبه على استخدام مجموعة متنوعة من أدوات البرامج وواجهات برمجة التطبيقات المختلفة.
في مارس 2023 ، أعلن Adept عن الانتهاء من جولة تمويل بقيمة 350 مليون دولار أمريكي من السلسلة B. تجاوز تقييم الشركة 1 مليار دولار أمريكي وتم ترقيتها إلى شركة يونيكورن. ومع ذلك ، بحلول الوقت الذي جمع فيه Adept تمويله العام ، ترك Niki Parmar و Ashish Vaswani شركة Adept لبدء مشروعهما الجديد الخاص بالذكاء الاصطناعي. ومع ذلك ، فإن الشركة الجديدة قيد الالتفاف حاليًا ولا يمكننا الوصول إلى تفاصيل الشركة.
كان مؤلف الورقة البحثية الآخر ، ** نعوم شيزير ** ، أحد أهم موظفي Google الأوائل. انضم إلى Google في نهاية عام 2000 ، حتى غادرها أخيرًا في عام 2021 ، ثم أصبح الرئيس التنفيذي لشركة ناشئة تدعى "Character.AI".
بالإضافة إلى نعوم شازير ، مؤسس Character.AI هو Daniel De Freitas ، وكلاهما من فريق LaMDA في Google. في السابق ، قاموا ببناء LaMDA ، وهو نموذج لغوي يدعم برامج المحادثة ، في Google.
في مارس من هذا العام ، أعلنت شركة Character.AI عن اكتمال تمويل بقيمة 150 مليون دولار أمريكي ، بقيمة مليار دولار أمريكي. وهي واحدة من الشركات القليلة الناشئة التي لديها القدرة على التنافس مع وكالة OpenAI. من ChatGPT ، ومن النادر أيضًا أن تنمو في 16 شهرًا فقط لشركات يونيكورن. تطبيقه ، Character.AI ، عبارة عن روبوت محادثة نموذجي للغة العصبية يمكنه إنشاء استجابات نصية شبيهة بالبشر والانخراط في محادثات سياقية.
تم إطلاق Character.AI في متجر Apple App Store و Google Play Store في 23 مايو 2023 ، مع أكثر من 1.7 مليون عملية تنزيل في أسبوعها الأول. في مايو 2023 ، أضافت الخدمة اشتراكًا مدفوعًا بقيمة 9.99 دولارًا شهريًا يسمى c.ai + ، والذي يتيح للمستخدمين الوصول إلى الدردشة ذات الأولوية وأوقات استجابة أسرع والوصول المبكر إلى الميزات الجديدة ، من بين الامتيازات الأخرى.
غادر ** Aidan N. Gomez ** Google في وقت مبكر من عام 2019 ، ثم عمل كباحث في FOR.ai ، وهو الآن المؤسس المشارك والرئيس التنفيذي لشركة Cohere.
Cohere هي شركة ناشئة في مجال الذكاء الاصطناعي تأسست عام 2019. وتشمل أعمالها الأساسية توفير نماذج البرمجة اللغوية العصبية ومساعدة الشركات على تحسين التفاعل بين الإنسان والحاسوب. المؤسسون الثلاثة هم إيفان زانج ونيك فروست وأيدان جوميز ، حيث كان جوميز وفروست أعضاء سابقين في فريق Google Brain. في نوفمبر 2021 ، أعلنت Google Cloud أنها ستتعاون مع Cohere ، وستستخدم Google Cloud بنيتها التحتية القوية لتشغيل منصة Cohere ، وستستخدم Cohere في Cloud's TPU لتطوير ونشر منتجاتها.
والجدير بالذكر أن Cohere قد جمعت للتو 270 مليون دولار في تمويل السلسلة C ، مما جعلها 2.2 مليار دولار يونيكورن.
** Łukasz Kaiser ** غادر Google في عام 2021 ، وعمل في Google لمدة 7 سنوات و 9 أشهر ، وهو الآن باحث في OpenAI. خلال الفترة التي قضاها كعالم أبحاث في Google ، شارك في تصميم نماذج SOTA العصبية للترجمة الآلية والتحليل والمهام الخوارزمية والتوليدية الأخرى ، وكان مؤلفًا مشاركًا لنظام TensorFlow ، مكتبة Tensor2Tensor.
ترك ** Jakob Uszkoreit ** شركة Google في عام 2021 وعمل في Google لمدة 13 عامًا قبل أن ينضم إلى Inceptive كمؤسس مشارك. Inceptive هي شركة أدوية تعمل بالذكاء الاصطناعي مكرسة لاستخدام التعلم العميق لتصميم عقاقير الحمض النووي الريبي.
أثناء وجوده في Google ، ساعد Jakob Uszkoreit في تكوين فريق فهم اللغة لمساعد Google وعمل على ترجمة Google في وقت مبكر.
** تركت ** Illia Polosukhin ** Google في عام 2017 وهي الآن المؤسس المشارك والمدير التقني لشركة NEAR.AI (شركة تقنية أساسية في blockchain).
الشخص الوحيد الذي ما زال في Google هو ** Llion Jones ** ، هذا العام هو سنته التاسعة في العمل في Google.
الآن ، مرت 6 سنوات على نشر بحث "الانتباه هو كل ما تحتاجه". اختار بعض المؤلفين الأصليين المغادرة ، واختار البعض البقاء في Google. على أي حال ، يستمر تأثير Transformer.
شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
الذكرى السادسة لـ Transformer: لم يتم الحصول على NeurIPS Oral ، وقد أسس 8 مؤلفين العديد من حيدات الذكاء الاصطناعي
يصادف اليوم الذكرى السادسة لتقديم ورقة المحولات الشهيرة.
قبل ست سنوات ، تم تحميل ورقة تحمل اسمًا مبالغًا فيه إلى منصة arXiv الورقية المطبوعة مسبقًا. تم تكرار عبارة "xx is All You Need" من قبل المطورين في مجال الذكاء الاصطناعي ، بل إنها أصبحت اتجاهًا في عنوان الورق. ، ولم يعد Transformer هو معنى Transformers ، فهو يمثل الآن أكثر التقنيات تقدمًا في مجال الذكاء الاصطناعي.
بعد ست سنوات ، بالنظر إلى هذه الورقة في ذلك العام ، يمكننا أن نجد العديد من الأماكن المثيرة للاهتمام أو غير المعروفة ، كما لخصها Jim Fan ، عالم الذكاء الاصطناعي في Nvidia.
يتخلى نموذج Transformer عن وحدات CNN و RNN التقليدية ، ويتكون هيكل الشبكة بالكامل من آليات الانتباه.
على الرغم من أن اسم ورقة Transformer هو "الاهتمام هو كل ما تحتاجه" ، فإننا نواصل تعزيز آلية الانتباه بسبب ذلك ، ولكن يرجى ملاحظة حقيقة مثيرة للاهتمام: ليس باحثو Transformer هم من اخترع الانتباه ، لكنهم وضعوا هذا يتم دفع الآلية إلى أقصى الحدود.
تم اقتراح آلية الانتباه من قبل فريق بقيادة رائد التعلم العميق يوشوا بنجيو في عام 2014:
في ورقة ICLR 2015 هذه ، اقترح بنجيو وزملاؤه مزيجًا من RNN + "متجه السياق" (أي الانتباه). في حين أنها واحدة من أعظم المعالم في البرمجة اللغوية العصبية ، إلا أنها أقل شهرة من Transformer ، حيث تم الاستشهاد بورقة فريق Bengio 29000 مرة حتى الآن ، و Transformer 77000.
إذا لم تتخلى عن أي معلومات محلية ، فستقوم حتماً بالكثير من الأعمال غير المفيدة ، والتي لا تؤدي إلى البقاء على قيد الحياة. وبالمثل ، فإن إدخال آليات مماثلة في شبكات التعلم العميق يمكن أن يبسط النماذج ويسرع الحساب. في الأساس ، الاهتمام هو تصفية كمية صغيرة من المعلومات المهمة من كمية كبيرة من المعلومات ، والتركيز على هذه المعلومات المهمة ، متجاهلاً معظم المعلومات غير المهمة.
في السنوات الأخيرة ، تم استخدام آلية الانتباه على نطاق واسع في العديد من مجالات التعلم العميق ، مثل رؤية الكمبيوتر لالتقاط الحقول المستقبلة على الصور ، أو في البرمجة اللغوية العصبية لتحديد موقع الرموز المميزة أو الميزات. لقد أثبت عدد كبير من التجارب أن النموذج المزود بآلية الانتباه قد حقق تحسينات كبيرة في الأداء في مهام مثل تصنيف الصور ، والتجزئة ، والتتبع ، والتحسين ، والتعرف على اللغة الطبيعية ، والفهم ، والإجابة على الأسئلة ، والترجمة.
يمكن اعتبار نموذج المحولات الذي يقدم آلية الانتباه ككمبيوتر تسلسل للأغراض العامة. تسمح آلية الانتباه للنموذج بتعيين أوزان انتباه مختلفة وفقًا لارتباط المواضع المختلفة في التسلسل عند معالجة تسلسل الإدخال. التقاط التبعيات بعيدة المدى ومعلومات السياق ، وبالتالي تحسين تأثير معالجة التسلسل.
لكن في ذلك العام ، لم يتحدث المحول ولا ورقة الاهتمام الأصلية عن جهاز كمبيوتر متسلسل للأغراض العامة. بدلاً من ذلك ، يرى المؤلفون أنه آلية لحل مشكلة ضيقة ومحددة - الترجمة الآلية. لذلك عندما نتتبع أصل الذكاء الاصطناعي العام في المستقبل ، قد نتمكن من تتبعه مرة أخرى إلى ترجمة Google "غير الواضحة".
** على الرغم من أنه تم قبوله من قبل NeurIPS 2017 ، إلا أنه لم يتم الحصول عليه حتى عن طريق الفم **
على الرغم من أن ورقة Transformer مؤثرة للغاية الآن ، إلا أنها لم تحصل حتى على جائزة Oral ، ناهيك عن جائزة ، في مؤتمر الذكاء الاصطناعي الأعلى في العالم NeurIPS 2017. تلقى المؤتمر ما مجموعه 240 3 ورقة بحثية في ذلك العام ، تم اختيار 678 منها كأوراق مؤتمرات. وكانت ورقة Transformer من الأوراق المقبولة. ومن بين هذه الأوراق ، 40 ورقة شفوية ، و 112 من أوراق Spotlight ، و 3 كانت الأفضل. أوراق ، جائزة اختبار الزمن ، غاب محول عن الجائزة.
على الرغم من أنه فاتته جائزة NeurIPS 2017 الورقية ، إلا أن تأثير Transformer واضح للجميع.
علق جيم فان: ليس خطأ الحكام أنه من الصعب على الناس إدراك أهمية دراسة مؤثرة قبل أن تصبح مؤثرة. ومع ذلك ، هناك أيضًا أوراق محظوظة بما يكفي لاكتشافها في المقام الأول. على سبيل المثال ، فازت شبكة ResNet التي اقترحها He Kaiming وآخرون بأفضل ورقة بحثية من CVPR 2016 في ذلك العام. هذا البحث مستحق جيدًا وتم التعرف عليه بشكل صحيح من قبل قمة الذكاء الاصطناعي. ولكن في الوقت الحالي في عام 2017 ، قد لا يتمكن الباحثون الأذكياء جدًا من التنبؤ بالتغييرات التي أحدثتها LLM الآن. تمامًا كما حدث في الثمانينيات ، كان القليل من الناس يتوقعون تسونامي الذي أحدثه التعلم العميق منذ عام 2012.
في ذلك الوقت ، كان هناك 8 مؤلفين لهذه الورقة ، كانوا من Google وجامعة تورنتو. بعد خمس سنوات ، غادر معظم مؤلفي الورقة المؤسسة الأصلية.
في 26 أبريل 2022 ، تم تأسيس شركة تسمى "Adept" رسميًا ، مع 9 من المؤسسين المشاركين ، بما في ذلك Ashish Vaswani و Niki Parmar ، اثنان من مؤلفي ورقة Transformer.
** تخرجت ** Niki Parmar ** من جامعة جنوب كاليفورنيا بدرجة الماجستير وانضمت إلى Google في عام 2016. خلال عملها ، طورت بعض نماذج الإجابة على الأسئلة الناجحة ونماذج تشابه النص في بحث Google والإعلان. قادت العمل المبكر لتوسيع نموذج Transformer إلى إنشاء الصور ورؤية الكمبيوتر والمزيد. في عام 2021 ، ستترك Google أيضًا.
بعد مغادرته ، شارك الاثنان في تأسيس Adept وشغل منصب كبير العلماء (Ashish Vaswani) ورئيس قسم التكنولوجيا (Niki Parmar) على التوالي. تتمثل رؤية Adept في إنشاء AI يسمى "زميل فريق الذكاء الاصطناعي" الذي يتم تدريبه على استخدام مجموعة متنوعة من أدوات البرامج وواجهات برمجة التطبيقات المختلفة.
في مارس 2023 ، أعلن Adept عن الانتهاء من جولة تمويل بقيمة 350 مليون دولار أمريكي من السلسلة B. تجاوز تقييم الشركة 1 مليار دولار أمريكي وتم ترقيتها إلى شركة يونيكورن. ومع ذلك ، بحلول الوقت الذي جمع فيه Adept تمويله العام ، ترك Niki Parmar و Ashish Vaswani شركة Adept لبدء مشروعهما الجديد الخاص بالذكاء الاصطناعي. ومع ذلك ، فإن الشركة الجديدة قيد الالتفاف حاليًا ولا يمكننا الوصول إلى تفاصيل الشركة.
كان مؤلف الورقة البحثية الآخر ، ** نعوم شيزير ** ، أحد أهم موظفي Google الأوائل. انضم إلى Google في نهاية عام 2000 ، حتى غادرها أخيرًا في عام 2021 ، ثم أصبح الرئيس التنفيذي لشركة ناشئة تدعى "Character.AI".
بالإضافة إلى نعوم شازير ، مؤسس Character.AI هو Daniel De Freitas ، وكلاهما من فريق LaMDA في Google. في السابق ، قاموا ببناء LaMDA ، وهو نموذج لغوي يدعم برامج المحادثة ، في Google.
في مارس من هذا العام ، أعلنت شركة Character.AI عن اكتمال تمويل بقيمة 150 مليون دولار أمريكي ، بقيمة مليار دولار أمريكي. وهي واحدة من الشركات القليلة الناشئة التي لديها القدرة على التنافس مع وكالة OpenAI. من ChatGPT ، ومن النادر أيضًا أن تنمو في 16 شهرًا فقط لشركات يونيكورن. تطبيقه ، Character.AI ، عبارة عن روبوت محادثة نموذجي للغة العصبية يمكنه إنشاء استجابات نصية شبيهة بالبشر والانخراط في محادثات سياقية.
تم إطلاق Character.AI في متجر Apple App Store و Google Play Store في 23 مايو 2023 ، مع أكثر من 1.7 مليون عملية تنزيل في أسبوعها الأول. في مايو 2023 ، أضافت الخدمة اشتراكًا مدفوعًا بقيمة 9.99 دولارًا شهريًا يسمى c.ai + ، والذي يتيح للمستخدمين الوصول إلى الدردشة ذات الأولوية وأوقات استجابة أسرع والوصول المبكر إلى الميزات الجديدة ، من بين الامتيازات الأخرى.
Cohere هي شركة ناشئة في مجال الذكاء الاصطناعي تأسست عام 2019. وتشمل أعمالها الأساسية توفير نماذج البرمجة اللغوية العصبية ومساعدة الشركات على تحسين التفاعل بين الإنسان والحاسوب. المؤسسون الثلاثة هم إيفان زانج ونيك فروست وأيدان جوميز ، حيث كان جوميز وفروست أعضاء سابقين في فريق Google Brain. في نوفمبر 2021 ، أعلنت Google Cloud أنها ستتعاون مع Cohere ، وستستخدم Google Cloud بنيتها التحتية القوية لتشغيل منصة Cohere ، وستستخدم Cohere في Cloud's TPU لتطوير ونشر منتجاتها.
والجدير بالذكر أن Cohere قد جمعت للتو 270 مليون دولار في تمويل السلسلة C ، مما جعلها 2.2 مليار دولار يونيكورن.
أثناء وجوده في Google ، ساعد Jakob Uszkoreit في تكوين فريق فهم اللغة لمساعد Google وعمل على ترجمة Google في وقت مبكر.