印度政府最近修訂了2021年信息技術(中介指南和數字媒體道德準則)規則,以解決人工智能和合成媒體在線使用日益增長的問題。
電子和信息技術部(MeitY)于2026年2月10日通知了這些修正案,自2026年2月20日起實施。修正案引入了“合成生成信息”的概念,將深度偽造和被操縱的媒體等人工智能生成的內容納入印度的中介監管框架。
根據修訂后的規則,合成生成信息廣義上是指使用計算機工具以使其看起來真實或真實的方式人工創建或更改的音頻、視頻或視聽內容。
經修訂框架引入的主要合規責任包括:
1. 人工智能生成內容的強制標簽
支持創建或共享人工智能生成內容的平臺必須確保此類內容被明確標記或披露為合成內容,以便用戶可以立即將其識別為人工智能生成內容。
2. 元數據和出處標記
在技術上可行的情況下,可能需要中介在此類內容中嵌入持久標識符或出處元數據,以幫助追蹤其來源。
3. 標簽移除限制
中介必須確保這些披露或出處標記一旦應用就不能被抑制、修改或刪除。
4. 用戶聲明
平臺可能會要求上傳此類內容的用戶聲明內容是否是合成生成的,從而增加人工智能驅動的媒體的責任。
5. 加速下架義務
對于未經同意的深度偽造、欺騙性冒充或其他非法合成媒體等高風險違規行為,平臺可能需要在通知后三小時內禁止訪問或刪除內容,從而大大收緊了之前的時間表。
這些修正案代表了印度首次直接針對人工智能生成內容的具有約束力的監管干預。雖然這些規則沒有對人工智能系統本身進行監管,但它們在平臺和分發層面施加了義務,提高了對數字平臺、人工智能服務提供商和社交媒體中介的合規期望。
運營平臺、生成式人工智能工具、內容托管服務或數字市場的組織應審查其系統,以評估是否符合與人工智能內容標簽、平臺治理、申訴補救時間表和自動監控機制相關的新要求。