乱码乱a∨中文字幕,在线免费激情视频,亚洲欧美久久夜夜潮,国产在线网址

  1. <sub id="hjl7n"></sub>

    1. <sub id="hjl7n"></sub>

      <legend id="hjl7n"></legend>
      1. 創(chuàng)業(yè)頭條
      2. 前沿領(lǐng)域
      3. 人工智能
      4. 正文

      聲音鑒黃師飽受摧殘,AI聲音鑒黃師為何沒幫上忙?

       2018-09-26 14:11  來源:A5專欄  我來投稿 撤稿糾錯

        阿里云優(yōu)惠券 先領(lǐng)券再下單

      文|雷宇

      來源|智能相對論(aixdlun)

      人民對性的態(tài)度向來很奇怪,父母和長輩期待子女能無師自通,教育者三緘其口,最后少男少女通過其他渠道實現(xiàn)了對性的初級摸索,當然這個摸索過程就很曲折了,文字,圖片,視頻和音頻遍地開花,“學習資料”越來越方便傳播。

      食也性也,但傳播色情內(nèi)容卻有極大的負外部效應,懵懂少男少女極易受其蠱惑,鑒黃師的重要性可想而知。在蘋果商店的社交App中,有超過1/10的應用主打聲音社交功能,由此催生出了一個新興職業(yè)——聲音鑒黃師。聲音鑒黃師是一個讓身心飽受摧殘的職業(yè),一位女性聲音鑒黃師稱,“一個人平均一天需要鑒定4000條信息,24小時輪班監(jiān)控,各種葷段子、曖昧語音,有時(聽到)惡心想吐。”

      聲音鑒黃師是一份不足以為外人道也的工作

      由于這份工作實在是太過于枯燥,很多男生都受不了,因此聲音鑒黃師多為女性且離職率高。一般枯燥且重復率高的工作都是AI的拿手好戲,那么AI有沒有辦法實現(xiàn)聲音鑒黃呢?

      聲音鑒黃之殤,AI難以克服雞尾酒效應

      視頻,圖片和語音是色情內(nèi)容常見的三種形式,多數(shù)公司的鑒黃都是立足于視頻和圖片,比如阿里的阿里綠網(wǎng)、騰訊的萬象優(yōu)圖等等。有人可能會疑問,這幾年科大訊飛、百度、騰訊等公司先后對外公布語音識別準確率均達到“97%”,那為什么在AI語音鑒黃上那么難?

      這是因為社交平臺的語音環(huán)境十分復雜,機器很難從龐大雜亂的語音中揪出涉黃涉暴人員,而這就不得不提雞尾酒效應了。所謂雞尾酒效應是指,在雞尾酒會嘈雜的人群中,盡管周圍噪聲很大,兩人可以順利交談,你們似乎聽不到談話內(nèi)容以外的各種噪音。這是因為我們的大腦對聲音都進行了某種程度的預判,然后才決定聽或不聽。

      用特瑞斯曼的注意衰減理論來解釋就是,當人的聽覺注意集中于某一事物時,意識將一些無關(guān)聲音刺激排除在外,而無意識卻監(jiān)察外界的刺激,一旦一些特殊的刺激與己有關(guān),就能立即引起注意的現(xiàn)象。

      但是機器卻不具備這樣意識和無意識,因此難以實現(xiàn)在嘈雜環(huán)境下的語音識別,這樣看來AI語音鑒黃貌似已經(jīng)走進了死胡同。

      實際上,已有公司在解決雞尾酒效應上做出了努力。今年4 月,Google曾在博客上發(fā)文稱,谷歌研究人員開發(fā)出了一種深度學習系統(tǒng),可識別和分離出嘈雜環(huán)境中的個體聲音。

      研究人員從YouTube上10萬段“講座和談話”視頻中提取了近2000小時的視頻片段,然后混合音頻與人工背景噪聲,創(chuàng)造“雞尾酒派對”。訓練技術(shù)人員將混合音頻進行拆分,谷歌的系統(tǒng)能夠分辨出哪個音頻源在給定的時間內(nèi)屬于哪張人臉,并為每個揚聲器創(chuàng)建單獨的語音軌跡。

      但Google的技術(shù)集中在視頻處理上,主要是對數(shù)段聲音的分離,而人工聲音鑒黃僅僅依靠聲音,有所不同。前不久,阿里AI語音反垃圾服務(wù)上線公測,它可以通過聲紋識別技術(shù),識別語音中存在的涉黃、廣告等違規(guī)信息,不管是中日英俄等語言,還是東北,四川,廣東的方言,甚至連無意義的呻吟聲都可以輕松判別。

      具體辦法是,對那些有語義的內(nèi)容,系統(tǒng)先將語音識別轉(zhuǎn)成文字,然后再將這些文字跟文本反垃圾模型或關(guān)鍵詞庫比對,判斷是否涉黃,對那些無語義的聲音,通過聲紋也能識別出來。但有一點值得注意的是,在語音識別的過程中,識別是哪種語言比內(nèi)容更難,機器翻譯也存在這樣的問題,因此還需要大量數(shù)據(jù)來進行訓練學習。

      做好嘈雜環(huán)境的語音識別,難點是如何將雜音與人聲分離。但對于聲音鑒黃而言,一開始并不知道哪一個音源涉黃,很難說誰是噪音,這需要機器具有全局觀。而上面提到的技術(shù),聲音分離或者將語音識別轉(zhuǎn)成文字都只是基本,由于尚未在語音復雜的環(huán)境下試驗過,因此這個結(jié)果嘛……退一萬步講,社交黑話也并不是那么好破譯的。

      社交黑話難解,語音識別障礙重重

      時代要拋棄你,它只會讓你看不懂,而我們也不能指望人工智能聽懂。

      就像你爹媽當初看不懂你的那句簽名:”ァ亊實證明,鱤綪桱淂起fеηɡ雨,卻桱囨起平啖;伖綪桱淂起平啖,卻桱囨起fеηɡ雨。ヤ”(沒亂碼),新一代社交黑話崛起一般人也很難看懂,比如XSWL(笑死我了,相當于一連串哈哈哈),NSS(暖說說,指幫點贊評論轉(zhuǎn)發(fā)說說,增進感情),CQY(處Q友的縮寫,想在QQ上找朋友的意思)。

      當然這也還算好的,無非就是縮寫。除了縮寫,還有一些只能強記的詞語。比如養(yǎng)火(互發(fā)消息三天出現(xiàn)小火花,互發(fā)消息超過三十天出現(xiàn)大火花,養(yǎng)火就是經(jīng)常聯(lián)系的意思),歐洲(想要什么就得到什么的人)……

      估計研究人員在錄入數(shù)據(jù)時就陣亡了,畢竟這玩意看上去也不算有章可循。值得注意的是,當人們在說話的時候,如果省略一兩個字不說,懂得的人自然也懂,但機器不一定能識別人們甚至為了混淆視聽,會多語夾雜,這就給機器識別增添了難度。

      這種輸入標準的不統(tǒng)一,是導致語音識別錯誤率高的首要原因。我們常用的鼠標和鍵盤雖然看似簡單,但它具備統(tǒng)一的輸入標準和精準的視覺反饋這兩點,而這正是語音識別技術(shù)不具備的,也是困擾現(xiàn)階段AI鑒黃的一大挑戰(zhàn)。

      毫不意外,現(xiàn)階段的聲音鑒黃師依然是以人為主。早在互聯(lián)網(wǎng)發(fā)展早期,黃色內(nèi)容主要是圖片和文字,靠人工就可以凈化網(wǎng)絡(luò)環(huán)境的目的,但是隨著互聯(lián)網(wǎng)帶來的數(shù)據(jù)爆炸,人工已經(jīng)遠遠不能勝任。

      雖然聲音鑒黃以人為本,但這并不意味著AI鑒黃師沒有價值。它能在特定的場景實現(xiàn)鑒定也無疑算是一種進步,而現(xiàn)階段它所呈現(xiàn)的問題,也無疑是技術(shù)發(fā)展過程中難以避免的陣痛。

      全球經(jīng)濟學家和咨詢公司的主流研究課題,總少不了人工智能會引發(fā)的失業(yè)規(guī)模,但是中國的互聯(lián)網(wǎng)已經(jīng)跑出了一條獨特的路線,因此針對中國的研究少之又少。聲音鑒黃師作為互聯(lián)網(wǎng)發(fā)展過程中的獨特產(chǎn)物,顯然會存在相當長一段時間,而現(xiàn)行的人工智能鑒黃也多為輔助人。

      一句正確但無用的話是,可以想見未來AI鑒黃會占據(jù)主流,但這個未來應該以哪個時間節(jié)點為基準,誰也無法預料。

      智能相對論(微信id:aixdlun):深挖人工智能這口井,評出咸淡,講出黑白,道出vb深淺。重點關(guān)注領(lǐng)域:AI+醫(yī)療、機器人、智能駕駛、AI+硬件、物聯(lián)網(wǎng)、AI+金融、AI+安全、AR/VR、開發(fā)者以及背后的芯片、算法、人機交互等。

      申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!

      相關(guān)文章

      • 為AI時代云服務(wù)器量身定制 阿里云操作系統(tǒng)Alinux 4重磅發(fā)布

        2025年9月24日,在杭州舉辦的云棲大會上,阿里云正式發(fā)布全新一代服務(wù)器操作系統(tǒng)AlibabaCloudLinux4(簡稱Alinux4)。Alinux4基于Linux6.6內(nèi)核打造,是首個全面遵循龍蜥社區(qū)“開源生態(tài)合作倡議”規(guī)范的商業(yè)發(fā)行版。它不僅兼容主流開源社區(qū)生態(tài),更針對阿里云最新9代ECS

      • 阿里云重磅發(fā)布AI安全護欄 五項安全能力護航AI安全

        9月24日,杭州云棲大會技術(shù)主論壇上,阿里云重磅發(fā)布AI安全護欄,提供五項核心安全能力,護航AI安全。一方面為客戶提供融入AIAgent開發(fā)全鏈路的原生安全防護,另一方面持續(xù)用AI賦能安全產(chǎn)品智能化升級,打造Agentic-SOC安全運營,提升安全威脅檢測和響應效率。在過去的一年,AIAgent正在

      • 魔搭社區(qū)國際版上線,并發(fā)布科學智能專區(qū)與AIGC創(chuàng)作引擎

        9月24日,魔搭社區(qū)舉辦了“全球協(xié)作?科學突破?創(chuàng)意無限”的專題論壇,并發(fā)布魔搭社區(qū)國際版、科學智能專區(qū)與AIGC創(chuàng)作引擎FlowBench,旨在連接全球開發(fā)者、加速科研范式創(chuàng)新、賦能創(chuàng)意表達。自2022年11月初成立至今,魔搭社區(qū)已成長為中國最大AI開源社區(qū),其模型數(shù)量已突破10萬,服務(wù)了全球20

      • 七連發(fā)!阿里多款重磅發(fā)布亮相云棲大會

        9月24日,2025云棲大會現(xiàn)場,阿里云CTO周靖人接連發(fā)布了七款大模型技術(shù)產(chǎn)品。七款技術(shù)產(chǎn)品覆蓋語言、語音、視覺、多模態(tài)、代碼等模型領(lǐng)域,在模型智能水平、Agent工具調(diào)用以及Coding能力、深度推理、多模態(tài)等方面均實現(xiàn)突破。在大語言模型中,阿里通義旗艦模型Qwen3-Max全新亮相,性能超過G