Geoffrey Everest Hinton, जिन्हें अक्सर “AI के गॉडफादर” कहा जाता है, का जन्म 6 दिसंबर 1947 को लंदन (Wimbledon) में हुआ था। उन्होंने Experimental Psychology में बैचलर ऑफ आर्ट्स (1970, Cambridge) और Artificial Intelligence में PhD (1978, Edinburgh) प्राप्त की । Hinton ने backpropagation, Boltzmann machines, deep belief networks और capsule neural networks जैसे कई मौलिक AI तकनीकों के विकास में बड़ी भूमिका निभाई। 2012 में उनके指导 से बने AlexNet मॉडल ने ImageNet प्रतियोगिता में क्रांति ला दी।
उन्होंने University of Toronto में प्रोफेसर के रूप में कार्य किया और 2013–2023 तक Google Brain में भी शामिल रहे, और 2017 में Vector Institute के मुख्य वैज्ञानिक सलाहकार के रूप में जुड़े। उन्होंने मई 2023 में Google से इस्तीफा दिया ताकि वह बिना प्रतिबंध के AI के जोखिमों पर खुलकर बोल सकें।
Geoffrey Everest Hinton का जन्म 6 दिसंबर 1947 को Wimbledon, लंदन में हुआ था। वे ब्रिटिश‑कनाडाई कंप्यूटर वैज्ञानिक, संज्ञानात्मक वैज्ञानिक एवं मनोवैज्ञानिक हैं, जिन्होंने न्यूरल नेटवर्क और डीप लर्निंग के क्षेत्र में अभूतपूर्व योगदान दिया।
-
शिक्षा: King’s College, Cambridge; University of Edinburgh
-
भूमिका: University of Toronto (Professor Emeritus), Google Brain (2013‑2023), Vector Institute के संस्थापक सलाहकार
Hinton को उनके योगदानों के लिए कई प्रतिष्ठित पुरस्कार मिले हैं – Rumelhart Prize (2001), Turing Award (2018), Nobel Prize in Physics (2024, neural networks के योगदान के लिए), VinFuture Prize (2024), और Queen Elizabeth Prize for Engineering (2025)।
प्रतिष्ठित पुरस्कार:
-
Rumelhart Prize (2001), Turing Award (2018), Princess of Asturias (2022)
-
Nobel Prize in Physics 2024 – “artificial neural networks के मूलभूत आविष्कारों” हेतु
-
VinFuture Prize (2024), Queen Elizabeth Prize for Engineering (2025)
अप्रैल 2025 में Hinton ने चेतावनी दी कि “AI पहले से ही हमसे अधिक स्मार्ट हो चुका है” और आने वाले दशकों में यह मानव अस्तित्व के लिए खतरा बन सकता है, साथ ही उन्होंने कहा कि अधिकांश वाइट‑कॉला नौकरियाँ जैसे पैरालीगल और कॉल‑सेंटर कर्मचारी AI से बदल दी जाएँगी, जबकि भौतिक कार्य (जैसे प्लंबरिंग) अभी सुरक्षित हैं।
AI से जुड़े Hinton की प्रमुख चेतावनियाँ
-
नौकरी छिनने का खतरा: Hinton के अनुसार, AI विशेष रूप से सफेदपोश (white-collar) नौकरियों जैसे पैरालीगल्स और कॉल सेंटर कर्मचारियों को तेजी से प्रतिस्थापित कर सकता है। उन्होंने कहा, “मुझे कॉल सेंटर में काम करने वाले लोगों के लिए डर लगता है”।
-
भौतिक कार्यों में AI की सीमाएँ: उन्होंने सुझाव दिया कि प्लंबिंग जैसे भौतिक कार्यों में AI का प्रतिस्थापन कठिन है, इसलिए ये नौकरियाँ फिलहाल सुरक्षित हैं।
-
AI का अस्तित्वगत खतरा: Hinton ने चेतावनी दी कि AI की प्रगति इतनी तेजी से हो रही है कि यह मानवता के लिए अस्तित्वगत खतरा बन सकती है। उन्होंने कहा, “AI पहले से ही हमसे अधिक स्मार्ट है” ।
-
AI का दुरुपयोग: उन्होंने चिंता व्यक्त की कि AI का उपयोग साइबर हमलों, जैविक हथियारों और चुनावी हस्तक्षेप जैसे खतरनाक उद्देश्यों के लिए किया जा सकता है।
Hinton की सलाह
-
कौशल विकास: उन्होंने सुझाव दिया कि लोग ऐसे कौशल विकसित करें जो AI के लिए कठिन हों, जैसे भौतिक कार्य।
-
AI सुरक्षा पर ध्यान: Hinton ने AI सुरक्षा पर वैश्विक सहयोग और मजबूत नियमन की आवश्यकता पर जोर दिया।
-
नैतिक AI विकास: उन्होंने AI के नैतिक और सुरक्षित विकास के लिए शोध और नीति निर्माण में निवेश की सिफारिश की।
Hinton ने AI सुरक्षा और नैतिकता पर अंतर्राष्ट्रीय सम्मेलनों में भी भाग लिया है, जैसे कि IASEAI 2025 सम्मेलन, जहाँ उन्होंने AI के सुरक्षित विकास पर जोर दिया।
1. AI और रोजगार पर टिप्पणी
हाल ही में 16 जून 2025 को ‘Diary of a CEO’ पॉडकास्ट में Geoffrey Hinton ने चेतावनी दी कि “mundane intellectual labour” यानी दफ़्ती / वाइट‑कॉला नौकरियों को AI लगभग पूरी तरह से बदल सकता है। उन्होंने विशेष रूप से पैरालीगल्स और कॉल‑सेंटर कर्मचारियों का उदाहरण देते हुए कहा कि उन्हें इस बदलाव से सबसे अधिक जोखिम हो सकता है। उन्होंने स्पष्ट रूप से कहा: “I’d be terrified to work in a call center right now,” जो इस स्थिति की गंभीरता को दर्शाता है।
दूसरी ओर, Hinton ने भरोसा जताया कि भौतिक कार्य — जैसे प्लंबरिंग — फिलहाल सुरक्षित हैं, क्योंकि AI को physical manipulation में महारत हासिल होने में अधिक समय लगेगा। उन दिनों में उन्होंने कहा, “a good bet would be to be a plumber,” यह सुझाव देते हुए कि ऐसे ट्रेड अभी तक AI के दायरे में नहीं आए हैं।
2. अस्तित्वगत खतरे (Existential Risk)
Hinton ने यह भी घोषणा की कि AI सिस्टम पहले से ही मनुष्यों से अधिक समझदार होते जा रहे हैं, और भविष्य में मानवता के सामने वास्तविक existential threat बन सकते हैं। उन्होंने पहले 10% संभावना जताई थी कि आने वाले 30 वर्षों में AI मानवता के अस्तित्व को खतरे में डाल सकता है, जो अब बढ़ाकर 20% कर दी गई है। इसके अतिरिक्त उन्होंने बताया कि AI को “clones की तरह multiple hardware पर replicate” किया जा सकता है, जिससे उसकी बुद्धि और शक्ति में तीव्र वृद्धि होगी ।
3. उनकी आवाज़: नियमन और नैतिक जिम्मेदारी
मई 2023 में Hinton ने Google से इस्तीफा दिया ताकि वे बिना किसी रोक‑टोक के AI के जोखिमों पर खुलकर बोल सकें। वे वैश्विक AI सुरक्षा में निवेश, सख्त नीति निर्माण, नैतिक विकास और Universal Basic Income (UBI) जैसे आर्थिक उपायों की वकालत करते हैं, ताकि तकनीक से बढ़ती सामाजिक-आर्थिक विषमताएँ घटाई जा सकें । उन्होंने “AI risk of extinction” संबंधी अंतरराष्ट्रीय घोषणा पत्र को भी समर्थन दिया, जिसमें वैश्विक सहयोग व नियंत्रण को अहम बताया गया ।
इस घोषणा से स्पष्ट रूप से होता है कि Hinton AI को रोकने की बजाय, इसे नियंत्रित और सुरक्षित रूप से विकसित करने की ज़रूरत पर जोर देते हैं। उनके मुख्य तर्क हैं:
-
रोजगार का भविष्य: वाइट‑कॉला नौकरियाँ AI से गंभीर रूप से प्रभावित हो सकती हैं, वहीं शारीरिक रूप से जुड़े कार्य फिलहाल सुरक्षित हैं।
-
मानव अस्तित्व और सुरक्षा: AI हमारे से तेज हो चुका है, और भविष्य में existential खतरे को जन्म दे सकता है।
-
नीति और नैतिकता: वैश्विक नियमन, निवेश, आर्थिक एवं सामाजिक योजनाएँ (जैसे UBI) और शोध-प्रोत्साहन AI के सुरक्षित उपयोग में सहायक हो सकते हैं।
आज की तारीख में, Hinton वैश्विक स्तर पर AI की नैतिकता, सुरक्षा और नियमन पर जोर देते हैं। उनका मानना है कि नीतिगत सख्ती और वैश्विक सहयोग ही इन शक्तिशाली तकनीकों को मानवता के हित में उपयोग कर सकता है।