وقال كاري كوجليانيز، الخبير في اللوائح الفدرالية والأخلاقيات في جامعة بنسلفانيا لوكالة رويترز "إن تدريب نموذج "غروك" على البيانات الحكومية الآن، يمنح النموذج ميزة تنافسية غير عادلة ولا يوجد لدى النماذج الأخرى المنافسة، وهو ما قد يكون عاملًا محوريًا عند اختيار نموذج ذكاء اصطناعي للتعاقدات الحكومية، لذا فإن شركة "إكس إيه آي" ورئيسها إيلون ماسك، ينتفعون مباشرة من استخدام النموذج في الإدارات الحكومية المختلفة".
وبعيدًا عن المخاوف من الخصوصية والاختراق ووصول الشركات الخاصة إلى البيانات السرية لملايين المواطنين، فإن استخدام الهيئات الفدرالية لنموذج "غروك" أو أي نموذج ذكاء اصطناعي آخر رسميا، يتطلب تعاقدًا رسميًا مع الشركة مقدمة هذا النموذج، وبالتالي يتطلب أن تدفع الحكومة الفدرالية قيمة الاشتراكات لشركة "إكس إيه آي"، بحسب الوكالة.
أثار هذا الأمر حفيظة العديد من أساتذة القانون في مختلف الجامعات الأميركية، ومنهم ريتشارد بينتر، المستشار الأخلاقي للرئيس الجمهوري السابق جورج دبليو بوش وأستاذ في جامعة مينيسوتا، الذي قال إن هذا التصرف، إن كان بعلم إيلون ماسك فإنه يضعه تحت طائلة القانون كونه ينتفع مباشرةً من هذا الأمر، وأما إن لم يكن بعلمه، فهذا لا يضع ماسك أو الموظفين تحت طائلة القانون مباشرة، ولكن يجب على البيت الأبيض حينها، أن يتدخل كون ماسك يستغل منصبه لمكسبه الخاص.
وتتزامن هذه الأنباء مع تركيز إدارة الكفاءة الحكومية بقيادة أبرز موظفيها كايل شوت وإدوارد كورستين اللذين يدفعان الوكالات الفدرالية إلى استخدام نماذج الذكاء الاصطناعي عموما، وكلاهما رفض الاستجابة لطلبات "رويترز".
وعلى صعيد آخر، فقد طالب موظفو إدارة الكفاءة الحكومية بالوصول إلى رسائل البريد الإلكتروني الخاصة بموظفي وزارة الأمن الداخلي، وذلك من أجل تدريب نموذج ذكاء اصطناعي للتعرف إلى ولاء الموظفين السياسي، وإن كان أحدهم يعارض مباشرة إدارة ترامب ، ناهيك عن رسالة وصلت إلى عشرات الموظفين في وزارة الدفاع تخبرهم أن حواسيبهم تخضع للمراقبة من خوارزمية خاصة لتحليل استخدامهم الحواسيب، ولكن لم يتم إخبارهم بنوع الأداة أو الهدف منها.
لم تستطع "رويترز" التحقق إن كان "غروك" هو الأداة المذكورة في الحالتين، ولكن مثل هذا الاستخدام ليس خارج قدراته، ولكنه يمثل انتهاكًا مباشرًا لقوانين الحريات بحسب ما قال كوجليانيز، الخبير في اللوائح الفدرالية والأخلاقيات في جامعة بنسلفانيا.
تجدر الإشارة إلى أن وزارة الأمن الداخلي بدأت منذ عدة أعوام في استخدام نماذج الاصطناعي العامة فضلًا عن نموذج خاص بها تم تطويره بشكل يحافظ على سرية البيانات، ويهدف الأمر إلى أن تكون الوزارة أول من يستغل تقنيات الذكاء الاصطناعي في الأعمال الفدرالية، ولكن بعد أقل من عام، أوقفت الوزارة استخدام أدوات الذكاء الاصطناعي العامة قاصرةً الاستخدام على روبوت الدردشة الداخلي الذي تم تطويره خصيصًا لها خوفًا على خصوصية البيانات وسريتها.