India’s New AI Content Rules 2026: ઇન્ટરનેટ અને Social Media નો નવો યુગ
- Synthetically Generated Information (SGI) શું છે? (What is AI Content / SGI?)
- Takedown Timelines: ૩ કલાકની અંદર કન્ટેન્ટ હટાવવાનો આદેશ (The 3-Hour and 2-Hour Removal Rules)
- Mandatory AI Labeling: Watermarks અને Metadata એમ્બેડ કરવા ફરજિયાત
- Social Media Platforms (SSMIs) માટે કડક જવાબદારીઓ
- Brands, Marketers અને Creators પર આ નિયમોની અસર (Impact on Enterprise Marketing)
- કાયદાકીય જોગવાઈઓ અને દંડ (Legal Consequences and Penalties)
- ભારતનું મલ્ટી-લેયર્ડ સાયબર રિસ્પોન્સ સિસ્ટમ (India’s Multi-Layered Cyber Response)
- નિષ્કર્ષ (Conclusion)
આજના Digital Age માં Artificial Intelligence (AI) અને Machine Learning ટેકનોલોજીનો વ્યાપ ખૂબ જ ઝડપથી વધી રહ્યો છે. એક તરફ AI એ Innovation અને Digital Growth માં ક્રાંતિ લાવી છે, તો બીજી તરફ Deepfakes અને ભ્રામક માહિતી (Misinformation) ના દૂષણે એક ગંભીર સમસ્યા ઊભી કરી છે. તાજેતરના અહેવાલો મુજબ, વર્ષ 2026 ની શરૂઆતમાં જ ભારતમાં “Deepfake Digital Arrest” અને synthetic impersonation ના 92,000 થી વધુ કેસો નોંધાયા છે. સેલિબ્રિટીઝના ડીપફેક વીડિયો (જેમ કે રશ્મિકા મંદાનાનો વાયરલ વીડિયો અને ઈલોન મસ્કના ફેક ક્રિપ્ટો પ્રમોશન) ઇન્ટરનેટ પર ભારે ખળભળાટ મચાવી ચૂક્યા છે.
આ વધતા જતા Cyber Crimes અને ઓનલાઇન જોખમોને ડામવા માટે, ભારત સરકારના ઇલેક્ટ્રોનિક્સ અને માહિતી ટેકનોલોજી મંત્રાલય (MeitY) એ એક ઐતિહાસિક પગલું ભર્યું છે. સરકારે ૧૦ ફેબ્રુઆરી ૨૦૨૬ ના રોજ Information Technology (Intermediary Guidelines and Digital Media Ethics Code) Amendment Rules, 2026 ની સત્તાવાર જાહેરાત (Gazette Notification) કરી છે. આ નવા અને કડક નિયમો 20 February, 2026 થી સમગ્ર દેશમાં સત્તાવાર રીતે લાગુ થઈ જશે. ચાલો આ નવા IT Rules 2026 ના દરેક પાસાને વિગતવાર સમજીએ અને જાણીએ કે આની Social Media Platforms, Creators અને સામાન્ય Users પર શું અસર પડશે.
Synthetically Generated Information (SGI) શું છે? (What is AI Content / SGI?)
નવા કાયદામાં સૌથી પહેલી અને મહત્વની બાબત એ છે કે સરકારે પહેલીવાર AI-generated content માટે સત્તાવાર વ્યાખ્યા આપી છે, જેને “Synthetically Generated Information” (SGI) નામ આપવામાં આવ્યું છે.
SGI ની વ્યાખ્યા: કોઈપણ ઓડિયો (Audio), વિઝ્યુઅલ (Visual) અથવા ઓડિયો-વિઝ્યુઅલ (Audio-visual) માહિતી, જે કમ્પ્યુટર રિસોર્સ અથવા અલ્ગોરિધમનો ઉપયોગ કરીને કૃત્રિમ રીતે (Artificially) બનાવવામાં, જનરેટ કરવામાં, અથવા મોડિફાય કરવામાં આવી હોય અને તે એટલી હદે અસલી (Authentic) દેખાતી હોય કે સામાન્ય માણસ તેને સાચી ઘટના કે સાચી વ્યક્તિ સમજી બેસે, તેને SGI કહેવામાં આવે છે.
આમાં ડીપફેક વીડિયો (Deepfake Videos), ફેક ઓડિયો ક્લિપ્સ (Voice Cloning), અને ફેસ-સ્વેપ્ડ ઈમેજીસ (Face-swapped images) નો સમાવેશ થાય છે જે લોકોને ગેરમાર્ગે દોરવા માટે બનાવવામાં આવ્યા હોય.
શું SGI માંથી બાકાત છે? (Exemptions): ઘણા Creators ને એવી ચિંતા હતી કે શું સામાન્ય Video Editing પણ આ નિયમ હેઠળ આવશે? સરકારે સ્પષ્ટતા કરી છે કે દરેક વસ્તુ SGI નથી.
• Routine Editing: કલર કરેક્શન (Colour correction), નોઈઝ રિડક્શન (Noise reduction), કમ્પ્રેશન, ટ્રાન્સક્રિપ્શન કે ટ્રાન્સલેશન જેવા સામાન્ય ફેરફારો, જે ઓરિજિનલ કન્ટેન્ટનો અર્થ બદલતા નથી, તેને SGI માનવામાં આવશે નહીં.
• Educational & Research Material: શૈક્ષણિક સામગ્રી, પ્રેઝન્ટેશન્સ, PDF ફાઇલો, અને કાલ્પનિક અથવા ટેમ્પલેટ-આધારિત ડ્રાફ્ટ બનાવવામાં AI નો ઉપયોગ થાય, તો તે આ કાયદા હેઠળ ગુનો નથી.
• Accessibility Tools: સબટાઇટલ ઉમેરવા કે સ્પષ્ટતા વધારવા માટે વપરાતા AI ટૂલ્સને આમાંથી મુક્તિ આપવામાં આવી છે.
પરંતુ, જો AI ટૂલનો ઉપયોગ કરીને ફેક સર્ટિફિકેટ, નકલી સરકારી દસ્તાવેજો કે નકલી આઈડી બનાવવામાં આવે, તો તે ગુનો ગણાશે.
Takedown Timelines: ૩ કલાકની અંદર કન્ટેન્ટ હટાવવાનો આદેશ (The 3-Hour and 2-Hour Removal Rules)
નવા IT Amendment Rules 2026 નો સૌથી કડક અને મહત્વનો હિસ્સો છે Takedown Timeline માં થયેલો ધરખમ ઘટાડો. અગાઉ સોશિયલ મીડિયા પ્લેટફોર્મ્સ પાસે વાંધાજનક સામગ્રી હટાવવા માટે ઘણો સમય રહેતો હતો, પરંતુ હવે સરકારે આ સમયમર્યાદા ખૂબ જ ટૂંકી કરી દીધી છે.
• 3-Hour Takedown Rule (૩ કલાકનો નિયમ): જ્યારે કોઈપણ Social Media Platform ને કોઈ કોર્ટનો આદેશ મળે અથવા સરકારના Authorized Officer (જેમ કે પોલીસ વિભાગના DIG કે તેથી ઉપરના રેન્કના અધિકારી) તરફથી કાયદેસરની નોટિસ મળે, તો તે પ્લેટફોર્મે તે ગેરકાયદેસર કે ભ્રામક AI Content ને માત્ર 3 Hours (ત્રણ કલાક) ની અંદર હટાવવું પડશે અથવા બ્લોક કરવું પડશે. અગાઉ આ સમયમર્યાદા 36 કલાકની હતી.
• 2-Hour Takedown for Sexual Content (૨ કલાકનો નિયમ): Non-Consensual Intimate Imagery (NCII) એટલે કે વ્યક્તિની મંજૂરી વિના તેના ચહેરાનો ઉપયોગ કરીને બનાવેલા અશ્લીલ ડીપફેક વીડિયો અથવા ન્યૂડિટી (Nudity) દર્શાવતા કન્ટેન્ટના કિસ્સામાં, ફરિયાદ મળ્યાના માત્ર 2 Hours (બે કલાક) ની અંદર પ્લેટફોર્મે તે કન્ટેન્ટ હટાવી દેવાનું રહેશે. અગાઉ આ સમય ૨૪ કલાકનો હતો. આ નિર્ણય મહિલાઓની સુરક્ષા અને બદનામી રોકવા માટે અત્યંત મહત્વપૂર્ણ સાબિત થશે.
આ ઉપરાંત, સામાન્ય Grievance Redressal (ફરિયાદ નિવારણ) માટેનો સમય ૧૫ દિવસથી ઘટાડીને ૭ દિવસ કરી દેવામાં આવ્યો છે.
Mandatory AI Labeling: Watermarks અને Metadata એમ્બેડ કરવા ફરજિયાત
ભારત સરકારે સ્પષ્ટ કર્યું છે કે હવે “Anonymous AI” અથવા લેબલ વગરનું AI કન્ટેન્ટ ભારતમાં વ્યાવસાયિક ઉપયોગ માટે ગેરકાયદેસર છે.
લેબલિંગના નિયમો (Labeling Requirements): જો કોઈ SGI કન્ટેન્ટ પ્રતિબંધિત કેટેગરીમાં ન આવતું હોય (એટલે કે તે માત્ર મનોરંજન કે માહિતી માટે હોય), તો પણ પ્લેટફોર્મ અને યુઝરની જવાબદારી છે કે તે કન્ટેન્ટ પર સ્પષ્ટ અને દેખીતું Label લગાવવામાં આવે.
• Visual Content: વીડિયો અથવા ઈમેજ પર “AI-Generated” અથવા “Synthetically Altered” એવું સ્પષ્ટ દેખાય તેવું લેબલ હોવું જોઈએ.
• Audio Content: જો માત્ર ઓડિયો ક્લિપ હોય, તો તેની શરૂઆતમાં “This audio is AI-generated” (આ ઓડિયો AI દ્વારા બનાવેલ છે) એવું સ્પષ્ટ Audio Disclosure હોવું ફરજિયાત છે.
The “10% Watermark” Controversy (10% વોટરમાર્કનો વિવાદ ઉકેલાયો): ઓક્ટોબર 2025 ના ડ્રાફ્ટ નિયમોમાં એવો પ્રસ્તાવ હતો કે AI ઈમેજ અથવા વીડિયોમાં ઓછામાં ઓછો 10% હિસ્સો કવર કરતો મોટો Watermark હોવો જોઈએ. આ પ્રસ્તાવનો Internet and Mobile Association of India (IAMAI) – જેમાં Google, Meta, Amazon વગેરે સામેલ છે – દ્વારા ભારે વિરોધ કરવામાં આવ્યો હતો. તેમનું કહેવું હતું કે આનાથી User Experience બગડશે. સરકારે ઇન્ડસ્ટ્રીની આ વાત માની લીધી છે અને ફાઇનલ નિયમોમાંથી 10% ની સાઈઝનો નિયમ પડતો મૂક્યો છે. હવે લેબલ હોવું ફરજિયાત છે, પરંતુ તેની કોઈ ચોક્કસ મોટી સાઈઝ નિર્ધારિત નથી, તે માત્ર “સ્પષ્ટ અને દેખીતું” (Clear and prominent) હોવું જોઈએ.
Invisible Metadata (C2PA Standards): ફક્ત દેખાય તેવો વોટરમાર્ક પૂરતો નથી, કારણ કે લોકો તેને ક્રોપ (Crop) કરી શકે છે. આથી નવા નિયમોમાં Persistent Metadata એમ્બેડ કરવાનું કહેવાયું છે. એટલે કે ફાઈલના બેકગ્રાઉન્ડ કોડમાં જ એ માહિતી હોવી જોઈએ કે આ કન્ટેન્ટ કયા AI Tool થી બન્યું છે અને ક્યારે બન્યું છે. પ્લેટફોર્મ્સે સુનિશ્ચિત કરવાનું રહેશે કે કોઈ યુઝર આ મેટાડેટાને ડિલીટ કે એડિટ (Tamper) ન કરી શકે.
Social Media Platforms (SSMIs) માટે કડક જવાબદારીઓ
નવા નિયમોનો સૌથી મોટો બોજ Significant Social Media Intermediaries (SSMIs) એટલે કે Facebook, Instagram, YouTube, X (Twitter) અને WhatsApp જેવા મોટા પ્લેટફોર્મ્સ પર આવશે.
• User Declaration & Verification: હવે જ્યારે કોઈ યુઝર કન્ટેન્ટ અપલોડ કરશે, ત્યારે પ્લેટફોર્મે તેને પૂછવું પડશે કે “શું આ કન્ટેન્ટ AI દ્વારા જનરેટ કરાયેલું છે?” (User Declaration). માત્ર પૂછીને પૂરું નથી થતું, પ્લેટફોર્મે Automated Tools નો ઉપયોગ કરીને ચેક પણ કરવું પડશે કે યુઝર સાચું બોલી રહ્યો છે કે નહીં.
• Quarterly User Warnings: પ્લેટફોર્મ્સે દર ૩ મહિને (દર ક્વાર્ટરમાં) પોતાના યુઝર્સને એક નોટિફિકેશન અથવા રિમાઇન્ડર મોકલવું પડશે જેમાં સ્પષ્ટ લખ્યું હોય કે AI નો દુરુપયોગ કરવાથી શું સજા થઈ શકે છે.
• Loss of Safe Harbor: જો કોઈ પ્લેટફોર્મ જાણીજોઈને (Knowingly) ફેક AI કન્ટેન્ટને પ્રમોટ કરશે અથવા લેબલ વિના ચાલવા દેશે, તો તેઓ ભારતના IT Act ના Section 79 હેઠળ મળતું “Safe Harbor” (કાનૂની રક્ષણ) ગુમાવી શકે છે. જોકે, સરકારે સ્પષ્ટ કર્યું છે કે જો પ્લેટફોર્મ નિયમ મુજબ કન્ટેન્ટ હટાવશે, તો તેમનું કાનૂની રક્ષણ જળવાઈ રહેશે.
Brands, Marketers અને Creators પર આ નિયમોની અસર (Impact on Enterprise Marketing)
Enterprise Marketing અને Creators માટે આ નિયમો એક મોટી ચેતવણી સમાન છે. હવે માત્ર “Experimentation” નો સમય ગયો, હવે “Compliance-by-Design” નો સમય છે.
DPDP Act 2023 અને Personality Rights: ભારતમાં હવે Digital Personal Data Protection (DPDP) Act સંપૂર્ણપણે લાગુ થઈ ગયો છે. કોઈપણ વ્યક્તિનો ચહેરો કે અવાજ (Voice and Likeness) હવે તેનો ‘Personal Data’ ગણાય છે. બ્રાન્ડ્સ જો કોઈ ઇન્ફ્લુએન્સર કે સેલિબ્રિટીનો AI Avatar બનાવવા માંગતા હોય, તો તેમણે ખૂબ જ સ્પષ્ટ મંજૂરી (Specific Consent) લેવી પડશે. જૂના કોન્ટ્રાક્ટ જેમાં માત્ર “Marketing Use” લખ્યું હોય તે હવે નહિ ચાલે, તેમાં “Synthetic Media Rights” નો સ્પષ્ટ ઉલ્લેખ હોવો જરૂરી છે. જો મંજૂરી વિના આવું થશે, તો કંપની પર ₹250 કરોડ સુધીનો દંડ થઈ શકે છે.
Enterprise SOP (Standard Operating Procedure): કોર્પોરેટ કંપનીઓએ હવે AI Video Production માટે એક કડક SOP બનાવવી પડશે.
1. Pre-Production: કાનૂની ટીમ દ્વારા પ્રોમ્પ્ટ પોલિસી (Prompt Policy) પાસ થવી જોઈએ.
2. Production: Real-time content moderation ફિલ્ટર્સનો ઉપયોગ થવો જોઈએ.
3. Post-Production: એક ‘Compliance File’ તૈયાર રાખવી પડશે, જેમાં ઓરિજિનલ સ્ક્રિપ્ટ, કન્સેન્ટ ફોર્મ અને 3-hour takedown માટે એક ખાસ ‘Grievance Officer’ ની નિમણૂક હોવી જોઈએ. TrueFan AI જેવા પ્લેટફોર્મ્સ બ્રાન્ડ્સને આ compliance જાળવવામાં ઘણી મદદ કરી રહ્યા છે.
Channel-Specific Strategies: YouTube કે Instagram પર પ્લેટફોર્મના Native “AI Label” નો ઉપયોગ કરવો ફરજિયાત છે. પરંતુ WhatsApp માર્કેટિંગ (WhatsApp Marketing) માં જોખમ વધુ હોવાથી, વીડિયોની શરૂઆતમાં ૨ સેકન્ડની ડિસ્ક્લોઝર સ્લાઈડ (Disclosure Slide) રાખવી પડશે, જેમ કે “[AI VIDEO] Hi, I’m [Brand]’s virtual assistant…”.
કાયદાકીય જોગવાઈઓ અને દંડ (Legal Consequences and Penalties)
નવા નિયમોને ભારતના અન્ય ફોજદારી કાયદાઓ સાથે સીધા જોડી દેવામાં આવ્યા છે, જેથી સાયબર ગુનેગારો છટકી ન શકે.
• Bharatiya Nyaya Sanhita, 2023 (BNS): જો કોઈ SGI કન્ટેન્ટ સમાજમાં રમખાણો કે ડર ફેલાવવાનો પ્રયાસ કરે (Misinformation), તો BNS ની કલમ 353 હેઠળ આકરો દંડ અને સજા થઈ શકે છે. બદનક્ષી (Defamation) માટે સેક્શન 356 લાગુ પડશે.
• Information Technology Act, 2000 (IT Act): સેક્શન 66C (Identity Theft) અને સેક્શન 66D (Impersonation/Cheating) હેઠળ કોઈનો ચહેરો વાપરીને છેતરપિંડી કરવા બદલ ૩ વર્ષ સુધીની જેલ અને ₹૧ લાખનો દંડ થઈ શકે છે. જો કન્ટેન્ટ અશ્લીલ (Obscene) હોય, તો સેક્શન 67 હેઠળ ૫ વર્ષ સુધીની સજા થઈ શકે છે.
• POCSO Act & Other Laws: જો AI કન્ટેન્ટમાં ચાઈલ્ડ પોર્નોગ્રાફી (CSEAM) સામેલ હશે, તો POCSO Act હેઠળ ગંભીર સજા થશે.
યુઝર્સ માટે ચેતવણી (User Warning): આ માત્ર પ્લેટફોર્મ્સ માટે જ નહિ, યુઝર્સ માટે પણ વોર્નિંગ છે. જો કોઈ યુઝર મજાકમાં પણ ફેક ડીપફેક વીડિયો બનાવીને વાયરલ કરશે, અને તેનું પરિણામ ગંભીર આવશે, તો તે યુઝરનું એકાઉન્ટ તાત્કાલિક ટર્મિનેટ (Terminate) થશે, પ્લેટફોર્મ પુરાવા (Evidence) જાળવી રાખશે અને કાયદાકીય તપાસ એજન્સીઓને યુઝરનો તમામ ડેટા સોંપી દેશે.
ભારતનું મલ્ટી-લેયર્ડ સાયબર રિસ્પોન્સ સિસ્ટમ (India’s Multi-Layered Cyber Response)
ભારત સરકારે માત્ર નિયમો જ નથી બનાવ્યા, પરંતુ તેને જમીન પર લાગુ કરવા માટે એક મજબૂત માળખું (Ecosystem) પણ તૈયાર કર્યું છે.
1. Grievance Appellate Committees (GACs): જો પ્લેટફોર્મ યુઝરની ફરિયાદ ન સાંભળે, તો યુઝર સીધો સરકારની GAC પોર્ટલ (www.gac.gov.in) પર અપીલ કરી શકે છે.
2. I4C અને SAHYOG Portal: Indian Cyber Crime Coordination Centre (I4C) સાયબર ક્રાઇમને રોકવા માટે રાજ્યો વચ્ચે સંકલન કરે છે. SAHYOG પોર્ટલ દ્વારા એજન્સીઓ ઓટોમેટેડ રિમૂવલ નોટિસ પ્લેટફોર્મ્સને મોકલી શકે છે.
3. National Cyber Crime Reporting Portal (1930): નાગરિકો કોઈપણ ડીપફેક કે સાયબર ફ્રોડની ફરિયાદ સીધી https://cybercrime.gov.in પર અથવા હેલ્પલાઇન નંબર 1930 પર કરી શકે છે.
4. CERT-In: ધ ઇન્ડિયન કમ્પ્યુટર ઇમરજન્સી રિસ્પોન્સ ટીમ (CERT-In) સમયાંતરે AI ના જોખમોથી બચવા માટેની એડવાઇઝરી અને ગાઈડલાઈન્સ બહાર પાડે છે.
નિષ્કર્ષ (Conclusion)
વર્ષ 2026 માટે જાહેર થયેલા આ નવા IT Amendment Rules સાબિત કરે છે કે ભારત સરકાર AI ના ઝડપી વિકાસ અને તેનાથી ઉદ્ભવતા જોખમો (Deepfakes, NCII, Misinformation) પ્રત્યે અત્યંત સજાગ છે. 3-Hour Takedown Limit અને ફરજિયાત લેબલિંગ (Mandatory Labeling) ના નિયમો સોશિયલ મીડિયા કંપનીઓ પર મોટું દબાણ લાવશે, પરંતુ લાંબા ગાળે આનાથી સામાન્ય યુઝર્સની Privacy અને ડિજિટલ સ્પેસની સુરક્ષામાં મોટો વધારો થશે.
Brands, Marketers, અને Creators માટે આ નિયમો એક “Discipline Upgrade” સમાન છે. જે લોકો પારદર્શિતા (Transparency) સાથે AI નો ઉપયોગ કરશે તેમના માટે કોઈ ખતરો નથી, પરંતુ જે લોકો છેતરપિંડી કે બદનામી માટે ડીપફેકનો આશરો લેશે, તેમના માટે હવે ઇન્ટરનેટ પર કોઈ જગ્યા બચી નથી. 20 February 2026 થી લાગુ થનારા આ નિયમો ભારતના Cyber Security ઇતિહાસમાં એક મહત્વનું સીમાચિહ્ન સાબિત થશે.