आर्टिफिशियल इंटेलिजेंस यानी AI आज पढ़ाई, नौकरी, बिजनेस और रोजमर्रा की जानकारी का अहम हिस्सा बन चुका है। लोग किसी भी सवाल का जवाब पाने के लिए सीधे AI चैटबॉट्स की ओर रुख कर रहे हैं। लेकिन अब Google की एक नई रिपोर्ट ने इस भरोसे पर बड़ा सवाल खड़ा कर दिया है। गूगल ने हाल ही में अपना FACTS Benchmark Suite जारी किया है, जिसमें AI मॉडल्स की फैक्चुअल एक्यूरेसी यानी तथ्यात्मक सटीकता को परखा गया। रिपोर्ट के मुताबिक, दुनिया के सबसे एडवांस AI चैटबॉट्स भी 70 प्रतिशत से ज्यादा सटीकता हासिल नहीं कर पा रहे हैं। आसान शब्दों में कहें तो AI से मिले हर तीन जवाबों में से एक जवाब गलत हो सकता है। यह खुलासा उन लोगों के लिए खतरे की घंटी है, जो बिना जांच-पड़ताल के AI पर पूरी तरह निर्भर हो चुके हैं।
FACTS Benchmark Suite क्या बताता है सच्चाई
गूगल ने इस बेंचमार्क के जरिए अलग-अलग कंपनियों के AI मॉडल्स को एक ही पैमाने पर परखा। FACTS Benchmark Suite का मकसद यह जानना था कि AI चैटबॉट्स तथ्यात्मक सवालों के जवाब कितनी सटीकता से दे पाते हैं। इस टेस्ट में गूगल का ही Gemini 3 Pro मॉडल सबसे आगे रहा, लेकिन इसकी सटीकता भी सिर्फ 69 प्रतिशत ही रही। यानी सबसे बेहतर मॉडल भी पूरी तरह भरोसेमंद नहीं है। रिपोर्ट में यह भी सामने आया कि मल्टीमॉडल टास्क, यानी जहां टेक्स्ट के साथ इमेज या अन्य डेटा शामिल होता है, वहां AI और ज्यादा कमजोर पड़ जाता है। कई मामलों में सटीकता 50 प्रतिशत से भी नीचे चली गई। इसका मतलब यह है कि जटिल सवालों में AI के गलत जवाब देने की संभावना और बढ़ जाती है, जो यूजर्स को गलत दिशा में ले जा सकती है।
Gemini, ChatGPT, Claude और Grok—कौन कितना सही
गूगल की रिपोर्ट में अलग-अलग कंपनियों के AI मॉडल्स की सटीकता के आंकड़े भी सामने आए हैं। गूगल का Gemini 3 Pro जहां 69 प्रतिशत एक्यूरेसी के साथ सबसे ऊपर रहा, वहीं Gemini 2.5 Pro और ChatGPT ने लगभग 62 प्रतिशत सटीकता दर्ज की। OpenAI के अलावा Anthropic का Claude 4.5 Opus मॉडल सिर्फ 51 प्रतिशत तक ही सही जवाब दे पाया। एलन मस्क की कंपनी xAI का Grok 4 भी करीब 54 प्रतिशत एक्यूरेसी पर ही टिक सका। ये आंकड़े दिखाते हैं कि बड़े नाम और हाई-एंड टेक्नोलॉजी के बावजूद AI मॉडल्स अभी भी इंसानों जैसी समझ और तथ्यात्मक पकड़ से काफी दूर हैं। खासकर तब, जब सवाल संवेदनशील, तकनीकी या विश्लेषणात्मक हों।
यूजर्स के लिए सबक: AI मददगार है, अंतिम सच नहीं
इस रिपोर्ट के बाद सबसे बड़ा सवाल यही उठता है कि आम यूजर AI का इस्तेमाल कैसे करे। विशेषज्ञों का कहना है कि AI को सहायक टूल की तरह इस्तेमाल करना ठीक है, लेकिन इसे अंतिम सत्य मान लेना खतरनाक हो सकता है। पढ़ाई, मेडिकल सलाह, कानूनी जानकारी या निवेश जैसे मामलों में AI के जवाबों को बिना जांचे अपनाना नुकसानदायक साबित हो सकता है। गूगल की रिपोर्ट यह साफ इशारा करती है कि AI अभी सीखने की प्रक्रिया में है और इसमें गलतियां होना स्वाभाविक है। इसलिए जरूरी है कि AI से मिली जानकारी को भरोसेमंद स्रोतों से क्रॉस-चेक किया जाए। तकनीक पर निर्भरता बढ़ने के इस दौर में समझदारी इसी में है कि इंसानी सोच और विवेक को पूरी तरह AI के हवाले न किया जाए, क्योंकि फिलहाल AI हर सवाल का सही जवाब देने में सक्षम नहीं है।








