会社で使用しているsambaサーバーですが、日々データが増加しています。データを削除するよりも、大きなHDDを付けたほうが良いという方向で進めてきましたが、重複しているデータもあるのでは?と疑問に思えて来ました。WindowsServerであれば、そのようなチェックも簡単に行えるのですが果たしてLinuxでは?
fdupes
Ubuntuは使用できるコマンドのようです。CentOSで検索してみると、RPMはあるようです。
怪しそうなので、他をあたってみます。
Duplicate Files Searcher
こちらはJAVAのようなのでCentOSでも使用出来そうです。
2015年6月29日月曜日
2015年6月25日木曜日
標的型メール攻撃の訓練を無料で出来る?
最近世の中で標的型メール攻撃と見られる被害が増えています。年金機構等の有名な所に被害が出ると、どうしても”我が社でも”ということになってしまいます。
と言うことで調べてみました。
偽のウイルスで対策意識を喚起、「標的型攻撃訓練」を検証する
それなりにお金はかかりそうです。
もっと安く出来ないでしょうか?
標的型メールの訓練は、キットを使って自前で実施しよう | 標的型攻撃メール対応訓練実施キット
なんとこちらの会社は実施キットを無料で配布しています。約5名程度でテストが出来るようなキットのようです。でもこの会社のサービスは安いです。メールの配布のみであれば無料のようです。実際に開封した結果を確認したい場合は有料になるという設定のようです。
で、今回のテーマはズバリ"タダ"が目標なのでこれ以外で考えます。
で、いろいろ探した所以下の様な方法である程度実現できることがわかりました。
ポイントは、偽装された添付ファイルを開いたてしまうかどうかなので、そこだけを確認することにします。
・準備
イントラネットのサーバー/適当なページ
Webビーコン入のWordのファイル
作り方はこちら
会社以外のメール
なければこのようなサービスで
・実践
Wordのファイル作成が全てです。リンクの先に丁寧に解説がありますので、そちらに沿って作成します。私が試した限りでは、HTML形式で保管しただけではちょっと動作が違っていました。
HTMLファイル作成、Webビーコン埋め込み、doc形式で保管
で作成できました。
実際に試してみると、Wordファイルを開くだけでイントラネットのサーバーのアクセスログにPCのIPアドレスが記録されます。外出先やモバイルで確認できるような会社の皆様には適用できません。社員の方が帰社したらそっとメールを送ってみましょう。
と言うことで調べてみました。
偽のウイルスで対策意識を喚起、「標的型攻撃訓練」を検証する
それなりにお金はかかりそうです。
もっと安く出来ないでしょうか?
標的型メールの訓練は、キットを使って自前で実施しよう | 標的型攻撃メール対応訓練実施キット
なんとこちらの会社は実施キットを無料で配布しています。約5名程度でテストが出来るようなキットのようです。でもこの会社のサービスは安いです。メールの配布のみであれば無料のようです。実際に開封した結果を確認したい場合は有料になるという設定のようです。
で、今回のテーマはズバリ"タダ"が目標なのでこれ以外で考えます。
で、いろいろ探した所以下の様な方法である程度実現できることがわかりました。
ポイントは、偽装された添付ファイルを開いたてしまうかどうかなので、そこだけを確認することにします。
・準備
イントラネットのサーバー/適当なページ
Webビーコン入のWordのファイル
作り方はこちら
会社以外のメール
なければこのようなサービスで
・実践
Wordのファイル作成が全てです。リンクの先に丁寧に解説がありますので、そちらに沿って作成します。私が試した限りでは、HTML形式で保管しただけではちょっと動作が違っていました。
HTMLファイル作成、Webビーコン埋め込み、doc形式で保管
で作成できました。
実際に試してみると、Wordファイルを開くだけでイントラネットのサーバーのアクセスログにPCのIPアドレスが記録されます。外出先やモバイルで確認できるような会社の皆様には適用できません。社員の方が帰社したらそっとメールを送ってみましょう。
2015年6月15日月曜日
Squidがお昼に遅い件
社内でProxyにSquidを使用していますが、最近お昼が相当遅いという苦情がありました。その先にあるFireWallの能力不足だと思っていましたが、その前に対応する方法がないか探してみました。
Squidがアクセス集中時に遅くなったときに行った対策
やはり同じような問題に対応している方がいらっしゃいます。こちらのページを参考にログを確認してみると、cache.logを見てみると、確かにYour cache is running out of filedescriptorsというメッセージが頻発しています。
Squidで接続数がオーバーしてデスクリプタエラーが出た時の対処方法
こちらのページに書いてあるように、コマンドで確認してみます。
# squidclient -p 8080 mgr:info | grep 'file descri'
Maximum number of file descriptors: 1024
Available number of file descriptors: 213
Reserved number of file descriptors: 100
Squidを標準ポートで動かしている場合は8080=>3128等に変更します。
10:00過ぎに試してみましたが、残りは213しかないようです。
squid.confに以下を記述してみます。
max_filedesc 4,096
Firewall側のセッションはお昼に10,000を超えているますが、まずは4,096にに設定してみます。
この変更はサービスをリスタートしないと適用されないようです。squidのリスタートは若干時間がかかるので、設定のみ変更してお昼にリスタートすることにします。
プロキシサーバーのインストール
上記のサイトを参考に、合わせてsquid.confの内容を見なおしてみます。
キャッシュサイズは小さかったのでこちらの変更しておきます。
お昼になったのでこっそりsquidをリスタートします。
squidclient -p 8080 mgr:info | grep 'file descri'
Maximum number of file descriptors: 4096
Available number of file descriptors: 1694
Reserved number of file descriptors: 100
何度かコマンドを実行しましたが、最も少ない数値で1694でした。あくまでもコマンドを実行した結果ですが。元々1024では全く足りていないことがよくわかりました。
キャッシュも従来の4倍に設定してみたので、改善したような気もします。
cache_dir ufs /var/spool/squid 2000 16 256
以上Squidがお昼に遅い件でした。
Squidがアクセス集中時に遅くなったときに行った対策
やはり同じような問題に対応している方がいらっしゃいます。こちらのページを参考にログを確認してみると、cache.logを見てみると、確かにYour cache is running out of filedescriptorsというメッセージが頻発しています。
Squidで接続数がオーバーしてデスクリプタエラーが出た時の対処方法
こちらのページに書いてあるように、コマンドで確認してみます。
# squidclient -p 8080 mgr:info | grep 'file descri'
Maximum number of file descriptors: 1024
Available number of file descriptors: 213
Reserved number of file descriptors: 100
Squidを標準ポートで動かしている場合は8080=>3128等に変更します。
10:00過ぎに試してみましたが、残りは213しかないようです。
squid.confに以下を記述してみます。
max_filedesc 4,096
Firewall側のセッションはお昼に10,000を超えているますが、まずは4,096にに設定してみます。
この変更はサービスをリスタートしないと適用されないようです。squidのリスタートは若干時間がかかるので、設定のみ変更してお昼にリスタートすることにします。
プロキシサーバーのインストール
上記のサイトを参考に、合わせてsquid.confの内容を見なおしてみます。
キャッシュサイズは小さかったのでこちらの変更しておきます。
お昼になったのでこっそりsquidをリスタートします。
squidclient -p 8080 mgr:info | grep 'file descri'
Maximum number of file descriptors: 4096
Available number of file descriptors: 1694
Reserved number of file descriptors: 100
何度かコマンドを実行しましたが、最も少ない数値で1694でした。あくまでもコマンドを実行した結果ですが。元々1024では全く足りていないことがよくわかりました。
キャッシュも従来の4倍に設定してみたので、改善したような気もします。
cache_dir ufs /var/spool/squid 2000 16 256
以上Squidがお昼に遅い件でした。
2015年6月5日金曜日
SymantecEndPointProtectionのウィルススキャンが遅い件
社内でも時々苦情が来ていましたが、以下のページに対応方法が書かれていまいたので、あわせてポリシーを変更してみました。
Symantec Endpoint Protectionのパターンファイル更新に時間がかかる
今まで検知されなかったファイルに対して新しい定義が配布された場合に再度チェックするのがいいと思っていたのですが。
暫くこれで様子を見てみます。
Symantec Endpoint Protectionのパターンファイル更新に時間がかかる
今まで検知されなかったファイルに対して新しい定義が配布された場合に再度チェックするのがいいと思っていたのですが。
暫くこれで様子を見てみます。
登録:
投稿 (Atom)