व्हाइट सर्कल: क्यों OpenAI और Anthropic के दिग्गजों ने कॉर्पोरेट AI नियंत्रण में लाखों का निवेश किया

द्वारा संपादित: Aleksandr Lytviak

शक्तिशाली एआई मॉडल बनाने वाली कंपनियों के प्रमुख अब अचानक उस स्टार्टअप के निवेशक बन गए हैं जो उन पर लगाम लगाने का काम कर रहा है। फ्रांसीसी कंपनी 'व्हाइट सर्कल' ने ओपनएआई (OpenAI), एंथ्रोपिक (Anthropic) और डीपमाइंड (DeepMind) के शीर्ष अधिकारियों से 11 मिलियन डॉलर जुटाए हैं, ताकि उद्यमों को एआई प्रणालियों की निगरानी और सुरक्षा के उपकरण प्रदान किए जा सकें। यह कदम न केवल तकनीकी प्रगति को दर्शाता है, बल्कि इस बात की स्वीकारोक्ति भी है कि उन्नत मॉडल के निर्माता खुद इस बात को लेकर आश्वस्त नहीं हैं कि वे इनके बड़े पैमाने पर कार्यान्वयन से जुड़े जोखिमों को अकेले संभाल पाएंगे।

व्हाइट सर्कल एक ऐसा प्लेटफॉर्म विकसित कर रहा है जो कॉर्पोरेट बुनियादी ढांचे के भीतर वास्तविक समय में एआई के व्यवहार पर नज़र रखता है। यह प्रणाली विचलनों, संभावित डेटा लीक और निर्धारित सीमाओं से बाहर जाने के मॉडल के प्रयासों को पकड़ती है। पारंपरिक साइबर सुरक्षा समाधानों के विपरीत, इसका ध्यान विशेष रूप से न्यूरल नेटवर्क के काम करने के तर्क पर केंद्रित है—जवाब तैयार करने से लेकर आंतरिक डेटाबेस के साथ बातचीत तक। इन मॉडलों के साथ दैनिक आधार पर काम करने वाले निवेशक इस परियोजना को ग्राहकों के लिए प्रतिष्ठित और कानूनी जोखिमों को कम करने के तरीके के रूप में देखते हैं।

यह फंडिंग वेंचर कैपिटल फंडों से नहीं, बल्कि सीधे उद्योग की प्रमुख हस्तियों से मिली है। यह सामान्य परिदृश्य को बदल देता है: आमतौर पर सुरक्षा क्षेत्र के स्टार्टअप्स को सामान्य तकनीकी निवेशकों से पैसा मिलता है। यहाँ पैसा उन लोगों से आया है जो संभावित रूप से उन समस्याओं के लिए जिम्मेदार हैं जिन्हें व्हाइट सर्कल हल करने का वादा करता है। इस तरह का कदम स्वतंत्र नियंत्रण की बढ़ती आवश्यकता की ओर इशारा करता है, जहाँ मॉडल डेवलपर्स खुद परिचालन के क्षेत्र में अपनी विशेषज्ञता की सीमाओं को स्वीकार कर रहे हैं।

उद्यमों के लिए इसका मतलब जिम्मेदारी की एक नई परत का उदय है। निर्णय लेने की प्रक्रियाओं में एआई को एकीकृत करने वाली कंपनियों को अब न केवल उत्तरों की सटीकता, बल्कि मॉडल के अप्रत्याशित व्यवहार की संभावना पर भी विचार करना चाहिए। व्हाइट सर्कल ऐसे उपकरण प्रदान करता है जो इन मामलों को दर्ज करने और नियामकों के लिए रिपोर्ट तैयार करने में मदद करते हैं। यूरोप और अमेरिका में कड़े होते कानूनों के बीच, इस तरह की निगरानी कॉर्पोरेट बुनियादी ढांचे का एक अनिवार्य हिस्सा बन सकती है।

यह स्थिति 20वीं सदी की शुरुआत के ऑटोमोबाइल उद्योग की याद दिलाती है: निर्माताओं ने पहले बिना सीट बेल्ट के कारें बेचीं और बाद में खुद उन मानकों और प्रणालियों में निवेश किया जिन्होंने उनके उपयोग को नियंत्रित किया। इसी तरह यहाँ भी—जो लोग एआई के प्रसार को तेज कर रहे हैं, वे साथ ही इसे नियंत्रित करने के तंत्र भी बना रहे हैं। यह कोई विरोधाभास नहीं है, बल्कि परिणामों के व्यापक स्तर पर एक स्वाभाविक प्रतिक्रिया है, जहाँ एक मॉडल की गलती हजारों उपयोगकर्ताओं या लाखों लेनदेन को प्रभावित कर सकती है।

3 दृश्य

स्रोतों

  • French startup White Circle secures $11M from OpenAI, Anthropic, DeepMind leaders to monitor and secure enterprise AI

क्या आपने कोई गलती या अशुद्धि पाई?हम जल्द ही आपकी टिप्पणियों पर विचार करेंगे।