久久人人爽爽爽人久久久-免费高清a级毛片在线播放-国产高清自产拍av在线-中文字幕亚洲综合小综合-无码中文字幕色专区

學術咨詢

讓論文發表更省時、省事、省心

sci論文數據造假會不會被發現?發現后可能產生什么后果?

時間:2024年03月19日 分類:SCI論文百科 次數:

sci論文發表一直是嚴謹的事情,其中數據往往要求嚴謹性,甚至有的期刊會需要作者提交原始數據,一些作者心理存有僥幸心理,也有一些疑問: sci論文數據造假會不會被發現,發現后會產生什么后果? 造假被查出來的大都是生物,材料之類的領域,然而計算機(特指深度學習)才

  sci論文發表一直是嚴謹的事情,其中數據往往要求嚴謹性,甚至有的期刊會需要作者提交原始數據,一些作者心理存有僥幸心理,也有一些疑問:sci論文數據造假會不會被發現,發現后會產生什么后果?

sci論文數據造假被發現的后果

  造假被查出來的大都是生物,材料之類的領域,然而計算機(特指深度學習)才是重災區,造假容易復現困難,隨機性強,別說二流論文,頂會論文都沒有參考價值。所以除了廉價勞動力夠多的大研究室,其他人論文的數量基本取決于科研的程度。

  隨便舉幾個例子,先從比較溫和的,沒什么造假空間的領域開始。

  比如組合優化的性能曲線,所有人都知道是個指數曲線,你搞個新的剪枝條件,水一點咱不求正確解,畢竟大部分應用下并不需要正確解,切掉1%的解換來50%的速度是很合理的思想。什么性能改進不夠大?5次實驗最好的跟最壞的比啊,還不行用C+SIMD寫的跟Java的比啊,再不行說實話你隨便編個數也沒人看得出來,畢竟理論上行得通,行不通那是他程序寫的不好。

  要說上面想法畢竟真的,頂多偷懶不想做實驗,到了ML領域之后那就是明明白白的造假了。數據集精選到位,想法再爛幾百個實驗里只要能挑出一個能看的,那就是頂會苗子——normalization + adaptive learning rate + manifold constraint審稿人怎么知道哪個項work?實際上去年的AAAI上有2篇就是我幾年前嘗試過但完全不work的方法,他們在沒改主要優化項的同時怎么把這個東西弄work的我也不知道。

  再進一步,古典ML還要你寫程序做實驗,到了DL里這些全都可以省了,完全可以畫圖編數據發頂會一步到位。畢竟就是個人肉Architecture Search,隨便找個domain畫個圖,編個比SOTA高一點的精度,一篇論文就誕生了。需要公開數據集和代碼?某國際大廠研究院實習生發的頂會論文也帶代碼,連矩陣的dim都寫反了,核心代碼10行里寫錯了5行,那精度也是讓人堪憂的。

  最近有些研究都開始明目張膽的把validation dataset的distribution當制約條件,甚至直接sample數據進train loop,人家都把造假上升為novel approach了,就別提被發現了。你只是想發個水刊,基本上不會有人狙你,大家都很忙的,誰有精力來管你這些東西。但是不排除你可能會被有競爭關系的人盯上,一般這種就沒辦法,自認倒霉吧。畢竟要想人不知,除非已莫為。

  學術研究這么多年,低垂的果實早就被前人摘掉了,剩下的就需要靠精力和經費去堆,如果沒有那個學術信仰,還是不要在這里面掙扎了。不然很多年后想起來,即使發過不少文章,但總是問心有愧的。

  所以你還在考慮通過學術造假來達到某種目的話,一般也沒人站在所謂的道德高地去指責你因為很多事情可能就是不得已而為之,包括我。但如果真的以后要搞學術,還是要珍惜自己的羽毛,畢竟學術這一塊向來容不下污點。