2021-04-21に更新

情報系資格対策兼DB復習の足跡🐈 🐾02

``
初日から飛ばしてしまい、奇々怪々な投稿してしまったこと、お詫び申し上げます。

さて、前回の続きです。今回はわりかし真面目にいきます😢


v目次にゃv

  1. スクレイピングでWEBからデータを抽出
  2. Excelでクエリ作成
  3. テーブル作成

スクレイピングでWEBからデータを抽出だニャー(=✧ω✧=)
今回は応用情報.comさんのサイトから午前問題の答えを抽出しました。
Pythonを用いてスクレイピングです。
ライブラリをインポートしたら手早く作っちゃいますにゃんこ~🐱
プログラム
プログラムを組むと作業で楽でいいニャー•v-v•
(下の”エウウウ”が抽出している回答です)


Excelでクエリ作成
1文ずつ手入力してしまうと、猫の手も借りたい現象が起きてしまうので、今回はExcelを活用します。
今回は既にExcelにて材料がテーブルとして用意してあるので、CONCATENATE関数を用いてSQL文と結合してクエリを作成するぎょぴよฅ^•ω•^ฅ
クエリ作成
先程、抽出した回答をExcelテーブル”originalans”列にコピペ。
その後、必要なSQL文の文字を空きセルに用意し結合するキツネ~🦊


テーブル作成
上の工程で出来たクエリをMySQLにコピペするにゃ~
にゃっ!テーブルを1つ作成完了ねこ!!!
SQL
(スペルミス、命名規約、正規化不足、語訳、見づらさについては大目にみていただけると幸いです。)


今日はここまで🐾
今回使用したスクレイピング、DB等々、詳しく知りたいとご要望があれば、猫でもわかるように説明するかもです。

これからも頑張るきんぎょー
``

ツイッターでシェア
みんなに共有、忘れないようにメモ

keito_woood

実際はもう少しまともです。本当です。嘘じゃないです。

Crieitは誰でも投稿できるサービスです。 是非記事の投稿をお願いします。どんな軽い内容でも投稿できます。

また、「こんな記事が読みたいけど見つからない!」という方は是非記事投稿リクエストボードへ!

有料記事を販売できるようになりました!

こじんまりと作業ログやメモ、進捗を書き残しておきたい方はボード機能をご利用ください。
ボードとは?

コメント