近年 AI 技術快速普及,很多人把換臉、生成圖片、AI 修圖當成娛樂工具,但近期台中校園深偽性影像事件引發社會關注,也讓大家重新理解一件事:科技越方便,法律責任越不能被忽略。根據中央社報導,台中某私立高中學生遭指利用深偽技術,將校內女學生照片製作不實性影像並散布,校方已依規定校安通報並啟動性平調查。這類事件之所以引發憤怒,不只是因為影像本身傷害被害人,更因為它將「身體隱私」變成被任意加工、消費與流傳的素材。
過去很多人以為,沒有真的偷拍、沒有真的碰到對方,就不算嚴重犯罪。但刑法已增訂「妨害性隱私及不實性影像」相關罪章,法務部也曾說明,利用電腦合成或其他科技方法製作不實性影像,可能嚴重侵害他人隱私與名譽,法律因此將不法攝錄、製作、散布性影像與不實性影像納入處罰範圍。換句話說,AI 做出來的性影像,不會因為「不是真的」就沒有責任;只要足以讓人誤認、造成羞辱、恐懼或人格損害,就可能走向刑事、民事與校園性平程序。
尤其在校園裡,這類事件的傷害常常比外界想像更深。被害人可能不是只害怕影像被看見,而是害怕同學眼光、匿名群組流傳、未來升學就業被搜尋到,以及家人知道後的壓力。婦援會近期也提醒,凡拍攝、製造、散布或販賣 AI 性影像者,都可能面臨刑責,犯罪紀錄也會重創未來升學與就業。這句話其實很值得放進家庭教育裡,因為很多青少年不是不懂科技,而是不懂「按下傳送鍵」背後可能發生什麼法律後果。
從法律上看,製作者、散布者、轉傳者的責任不一定相同,但都不能用「我只是轉發」、「我只是覺得好笑」、「群組大家都在看」來切割。製作不實性影像可能涉及刑責;散布、販賣、持有與轉傳,也可能依情節受到處罰。若影像涉及未成年人,問題會更加嚴重,除了刑事責任外,還可能牽涉兒少性剝削防制、性別平等教育法、個資法與民事損害賠償。對加害者來說,這不是一次惡作劇,而是一個可能留下前科、賠償責任與校園處分的重大事件。
對被害人而言,第一步不是急著公開反擊,而是保存證據。包含截圖、網址、群組名稱、傳送時間、帳號名稱、對話紀錄、影像來源、可能的散布者,都要盡量完整保存。不要只截一張圖,也不要立刻跟對方私下談和解,因為對方可能刪除資料或轉移平台。若事件發生在校園,應立即向學校、性平窗口、家長、警方或專業法律人士求助。若已被放上平台,還要同步申訴下架,避免擴散。
AI 技術不是原罪,真正的問題是人用科技侵犯他人的身體自主與人格尊嚴。現在的孩子很早接觸 AI,家長與學校不能只教「怎麼生成圖片」,也要教「什麼不能生成、不能傳、不能看」。法律的目的不是阻止科技進步,而是提醒每個人,任何人的臉、身體與隱私,都不該成為別人取笑、操控或交易的素材。當 AI 換臉性影像進入校園,這不只是單一學生犯錯,而是整個社會都必須補上的法律教育課。










