भविष्यात एआय धोकादायक, आनंद महिंद्रा
आनंद महिंद्रा यांनी स्वतः एआय जनरेटिव्ह इमेजला शेअर केले आहे. आनंद महिंद्रा यांनी एआयने बनवलेला फोटो सोबत कॅप्शन लिहिले की, आपले भविष्य खूप धोकादायक असणार आहे. एआय सहज फेक इमेज आणि न्यूज बनवू शकतो. एआय वरून हे स्पष्ट झाले की, ते कोणाचाही सहज एआय फोटो किंवा व्हिडिओ बनवू शकतो. जे चिंता करायला लावणारे आहे.
वाचाः Jio ची खास ऑफर, वर्षभर डेली २.५ जीबी डेटा आणि अनलिमिटेड कॉलिंग
आधीही आनंद महिंद्रा यांनी एआय फोटो वापरला
ही पहिली वेळ नाही की, आनंद महिंद्रा यांनी एआय इंटिग्रेटेड इमेज जनरेट केली आहे. याआधी एप्रिल मध्ये एक व्हिडीओ जनरेट केला होता. यात एका महिलेचा ५ ते ९५ वर्षापर्यंतचा फोटो बनवला होता.
वाचाः Xiaomi Pad 6 भारतात लाँच, ३० हजारांपेक्षा कमी किंमतीत मिळतील दमदार फीचर्स
काय आहे डीपफेक
खरं म्हणजे एआय असा फोटो आणि व्हिडिओ बनवतो. ज्याला व्यक्ती सहज ओळखू शकत नाही. हा फोटो आणि व्हिडीओ एकदम खरोखर वाटतात. त्यामुळे आगामी दिवसात फ्रॉड वाढण्याची शक्यता आहे. काही दिवसांपूर्वीच भगवान रामाचा एआय फोटो व्हायरल झाला होता. त्याआधी अमेरिकेचे माजी राष्ट्राध्यक्ष डोनाल्ड ट्रम्प यांना अटक करण्यात आल्याचा फोटो इंटरनेट वर फिरत होता.
वाचाः किडनी विकावी लागणार नाही, Apple आणणार स्वस्तातील AR हेडसेट, पाहा लाँचिंग डेट-किंमत