Subscribe to our newsletter By subscribing, you agree with Revue’s Terms of Service and Privacy Policy and understand that Weekly Kaggle News will receive your email address. Mar 18, 2022 Weekly Kaggle News #118 News & CompetitionsKaggle「Feedback Prize - Evaluating Student Writing」が15日に終わりました。学生が書いた議論用の文章を解析 Weekly Kaggle News #118 By Weekly Kaggle News • Issue #118 • View online News & CompetitionsKaggle「Feedback Prize - Evaluating Student Writing」が15日に終わりました。学生が書いた議論用の文章を解析する自然言語処理コンペでした。国際学会「KDD 2022」で「KDD Cup」として開催される2つのコンペ情報が公開されました。AmazonのECサイトのデータセットを用いる「Amazon Product Search」と、風力発電予測が題材の「Wind Power Forecast」が開催されます。 [2203.05482] Model soups: averaging weights of multiple fine-tuned models improves accuracy without increasing inference time In this paper, we revisit the second step of this procedure in the context of fine-tuning large pre-trained models, where fine-tuned models often appear to lie in a single low error basin. arxiv.org • Share モデルの出力ではなく重みを混ぜ合わせるアンサンブル手法を提案している論文。推論時のモデルが1つで済む利点があります。 GitHub - oreilly-japan/deep-learning-from-scratch-4 Contribute to oreilly-japan/deep-learning-from-scratch-4 development by creating an account on GitHub. github.com • Share 書籍『ゼロから作るDeep Learning ❹ 強化学習編』のサポートサイト。サンプルコードがKaggle上のNotebookなどの形式で公開されています。 対談!Kaggle Grandmasterの仕事とは【DeNA TechCon 2022】 「DeNA TechCon 2022」内のセッションとして開催されたパネルディスカッションの動画。独自のKaggle社内ランク制度を設けるDeNAに所属する4人のKaggle Grandmasterが登壇しました。 Did you enjoy this issue? By Weekly Kaggle News What happened to Kaggle? Unofficial newsletter. Tweet Share In order to unsubscribe, click here. If you were forwarded this newsletter and you like it, you can subscribe here. Powered by Revue Share Share to Twitter Share to Facebook Subscribe to our newsletter By subscribing, you agree with Revue’s Terms of Service and Privacy Policy and understand that Weekly Kaggle News will receive your email address.