常用連結
(移至...)
首頁
艾鍗學院
GitHub
討論區
Youtube Channel
Facebook
SlideShare
▼
2025年5月21日 星期三
模型是根據句中的哪段話判斷分類結果
›
#Transformer #BERT # Self -Attention #Explainable AI #LIME #SHAP 在NLP中的文章分類或句子的情緒判別中,模型分類結果符合預期,但如何得知到底是這句話或文章那句話或詞語決定了分類的結果 ? LIME 執...
2025年1月10日 星期五
不平衡資料集: 使用 k-fold 交叉訓練
›
當樣本類別分佈很不平均時,如這樣, 如果無法使用data augumentation 增加少數離Minority)類別的樣本資料, 可以只有重抽樣的方法,避免模型訓練後只會偏向回答多數(Majority)類別的答案。 Resampling 是指反覆地從訓練資料中抽取不同...
2024年12月18日 星期三
›
生成深度學習|訓練機器繪畫、寫作、作曲與玩遊戲 第二版 Generative Deep Learning, 2nd Edition Page 203 X_T should have zero mean and unit variance 中文應為 : 均值為 0...
2024年12月16日 星期一
判別式AI與生成式AI
›
生成式AI的崛起與發展 生成式AI(Generative AI)在2022年底隨著ChatGPT的問世而廣受關注。ChatGPT展現出近乎自然的人類對話能力,讓許多人驚嘆AI技術的進展。如今,ChatGPT的功能已不僅限於文字對話,更可解讀圖片、PDF文件分析,並能提供內容...
2024年10月8日 星期二
描述常態分佈的特徵: 偏度與峰度
›
對於常態分佈(可以Histogram 畫下來) ,除了mu (mean), sigma (variance), 還可以用 Skwness 及kurtosis 來描述, 此亦可以作為特徵。 Skwness: 描述圖形是對稱分佈嗎? 還是左偏分佈 ? 或右偏分佈分佈? 偏度 k ...
2024年10月5日 星期六
多變量常態分佈 Normal Distribution
›
Multinormal Distribution (多態性常態分佈) 當K=1 時, 即是單維的 常態分佈 f(x) 若 u=0, covariane matrix= I 當K=2 時, 為雙變數的 常態分佈 PDF f(x,y)
2024年9月25日 星期三
觀察資料的趨勢
›
EDA 中觀察資料的趨勢 針對Time Series Data 通常會觀察原始資料的趨勢(Trend), 季節性/週期性(Seasonality)的狀態或資料中的雜訊. 但這些數據是怎麼取得的呢? 趨勢線: 用原始資料的移動平均值(MA)作為長期走勢的觀察. (移動窗口可以自己...
›
首頁
查看網路版