[過去ログ]
Pythonのお勉強 Part73 (1002レス)
Pythonのお勉強 Part73 http://mevius.5ch.net/test/read.cgi/tech/1717631290/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
リロード規制
です。10分ほどで解除するので、
他のブラウザ
へ避難してください。
966: デフォルトの名無しさん (ワッチョイ ff32-uXkv) [] 2024/09/17(火) 10:56:23.24 ID:bvtQXCJ00 複数のエクセルファイルから特定列のデータを抜き出して 新たにエクセルファイルにまとめて書き出すということをしたのですが、 複数ファイルには重複する行が含まれていて、 下記の2つを試したのですがどちらも欠損データが生じました。 1.listに一旦全部入れて、最終的にsetに一旦変換してlistに戻す 2.1行ごとに最終的なリストに含まれていない要素をチェックしながら追加 データは5列で最終的に重複処理したもので300行程度、 重複処理前でも2000行余りぐらいのデータです。 最終的にpandasで全部一旦追加した後df.drop_duplicates()にて処理して問題なく処理されたのですが 下記の方法で欠損することとかあり得るのでしょうか? http://mevius.5ch.net/test/read.cgi/tech/1717631290/966
968: デフォルトの名無しさん (ワッチョイ 1779-0tQg) [sage] 2024/09/17(火) 12:16:27.92 ID:rwC9vNLN0 >>966 各列をそれぞれlistにしてsetにしたのか? それだと各列ごとに重複削除するから行レベルでは重複してないものも消えそうだが http://mevius.5ch.net/test/read.cgi/tech/1717631290/968
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.036s