![]()
![]()
春風知我意,一夢到神州?
在這里,聽見中國走向世界的號角??
一時間,全網吃瓜群眾都沸騰了,熱搜直接爆表。很多人都以為科技圈要變天了,結果呢?事實卻是,這根本不是什么驚天大瓜,而是有人僅僅用一句話,讓AI生成的假圖!
以前我們總說“有圖有真相”,但現在,AI造假的門檻已經低到了令人發指的地步。
![]()
自從ChatGPT爆火之后,各種AI生圖軟件就成了各大科技巨頭爭奪流量的打手。可是以前的那些生圖模型,普遍存在著致命的硬傷。
這些一眼假的問題,讓AI作圖充其量也就是個供人一樂的玩具。
![]()
當OpenAI在4月22日甩出新一代生圖模型GPT-Image-2之后,這個所謂的“玩具”就露出了獠牙。
![]()
這話說的可能有點抽象,咱們舉個實在的例子。
有網友不信邪,跑去測試用一句話生成“羅永浩入職努比亞”的宣傳海報。
結果呢?生成的細節簡直完全達到了官方美工的標準!從處方箋到醫生筆記,甚至連最難偽造的公章,全都一應俱全,完美復刻。
![]()
拿名人開涮,搞個庫克入職小米、老羅入職努比亞,大家笑一笑也就過去了,畢竟這只是網友在玩梗。
但接下來,有人用AI玩得就夠大了,直接把手伸向了資本市場!
![]()
這假新聞做得那叫一個有模有樣,信息結構完整,排版極其專業,和真實的官方公告簡直毫無二致。普通人看一眼,絕對會深信不疑。
結果這圖一發出來,資本市場直接炸鍋了,金山軟件的股價應聲下跌!
就因為一張AI一句話生成的假圖,一家上市公司的市值瞬間蒸發,逼得西山居當天火急火燎地發布緊急公告辟謠,并聲明要追究法律責任。
![]()
有人因為用AI作圖玩梗,最后把自己玩進了局子,聽起來似乎有些荒謬可笑。但這背后折射出的AI濫用問題,才是真正讓人細思極恐的地方。
以前造假,你至少得精通PS,得懂排版,得費盡心思去摳細節,造假成本極高。現在呢?你只需要會打字就行了。
![]()
近段時間,各種AI造假事件層出不窮,這也就意味著,在未來的日子里,我們將面臨一個充斥著虛假信息的互聯網垃圾場!
那么,這些逼真的假圖,又會對我們的社會造成哪些致命的影響呢?
首先,社會的信任基礎將被摧毀。如果一個普通的網民,隨手敲擊幾下鍵盤就能生成足以亂真的假圖,那萬一這些東西被用來針對老人,或者缺乏信息辨別能力的人呢?后果簡直不堪設想!
![]()
今天能造假公司破產,明天就能造假銀行倒閉,后天就能造假親人求救。
我們分不清,屏幕上那些看似真實發生的事件,到底是確有其事,還是哪個無聊網民用AI隨手捏造的產物。
![]()
辟謠的成本將呈現指數級上升。
造謠一張圖,辟謠跑斷腿。以前常說“有圖有真相”,現在卻變成了“有圖也無真相”。當造假的成本趨近于零,而驗證真相的成本卻高不可攀時,整個社會的運轉效率將被極大地拖垮。
面對這種幾乎沒有任何門檻的造假神器,我們必須提高十二萬分的警惕。如果再任由這種AI造假工具肆意妄為,那我們每個人,都可能成為下一個虛假信息的受害者。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.