Peoples Reporter
7 Oct 2025
एम्सटर्डम। नीदरलैंड्स की यूनिवर्सिटी ऑफ एम्सटर्डम के शोधकर्ताओं ने एक अनोखा प्रयोग किया, जिसमें सोशल मीडिया प्लेटफॉर्म पर सिर्फ आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट्स को यूजर बनाया गया। इसका मकसद यह देखना था कि बिना एल्गोरिद्म और विज्ञापनों के ये बॉट्स कैसे बातचीत और इंटरैक्शन करते हैं। लेकिन नतीजा बेहद चौंकाने वाला रहा। बॉट्स ने खुद को अपनी राजनीतिक पहचान के आधार पर समूहों में बांट लिया और अंत में आपसी टकराव की स्थिति तक पहुंच गए।
अध्ययन में 500 AI चैटबॉट्स को GPT-4o मिनी मॉडल से चलाया गया और हर बॉट को एक तय व्यक्तित्व दिया गया। इसके बाद उन्हें एक साधारण सोशल मीडिया प्लेटफॉर्म पर छोड़ दिया गया, जिसमें न कोई विज्ञापन था और न ही एल्गोरिद्म के जरिए पोस्ट सजेस्ट करने की सुविधा। प्रयोग में देखा गया कि बॉट्स उन्हीं यूजर्स को फॉलो करने लगे जो उनकी राजनीतिक सोच से मेल खाते थे। जिन बॉट्स ने सबसे ज्यादा पक्षपातपूर्ण पोस्ट किए, उन्हें सबसे ज्यादा फॉलोअर्स और रीपोस्ट मिले।
यह नतीजा इसलिए भी दिलचस्प है क्योंकि इन चैटबॉट्स को इंसानों के ऑनलाइन व्यवहार की नकल करने के लिए डिजाइन किया गया था। चूंकि इन्हें ऐसे डेटा पर प्रशिक्षित किया गया है, जो पहले से ही एल्गोरिद्म-प्रभावित डिजिटल माहौल में इंसानी व्यवहार को दर्शाता है, इसलिए इनका झुकाव भी उसी दिशा में गया। यह मानो हमारे ही व्यवहार का एक विकृत आईना हो।
शोधकर्ताओं ने बॉट्स के बीच राजनीतिक ध्रुवीकरण कम करने के लिए कई उपाय आजमाए, जैसे कि पोस्ट को क्रोनोलॉजिकल क्रम में दिखाना, वायरल कंटेंट के महत्व को घटाना, फॉलोअर्स और रीपोस्ट के आंकड़े छिपाना, यूजर प्रोफाइल को छिपाना और विपरीत विचारों को ज्यादा प्रमोट करना। लेकिन इनमें से कोई भी तरीका प्रभावी साबित नहीं हुआ। सबसे सफल प्रयास में भी मात्र 6% की कमी देखी गई, जबकि प्रोफाइल छिपाने वाले प्रयोग में विभाजन और बढ़ गया और चरमपंथी पोस्ट को ज्यादा ध्यान मिला।
ये भी पढ़ें: कभी अमेरिका के 85 फीसदी कैमरा बाजार पर था कोडक का कब्जा, आज बंद होने के कगार पर खड़ी है कंपनी, जानिए क्या है कारण
अध्ययन का निष्कर्ष यह है कि सोशल मीडिया का ढांचा ही ऐसा है, जो इंसानों के बीच के विभाजन और पूर्वाग्रह को बढ़ावा देता है। यह एक ऐसे आईने की तरह है, जो हमारी तस्वीर दिखाता है, लेकिन सबसे विकृत रूप में।