[作業系統設定]利用IPSec對指定的ip進行訪問限制
以win2003系統為例:
操作(看圖):
1.任務:現在192.168.2.200可訪問;目的;本地禁止對其訪問
2.進入:管理工具->本地安全設定->IP安全策略
3.右鍵建立IP安全策略
4.彈出嚮導,如下圖:(一直選擇[是]或者[下一步]直至完成,期間填寫名稱可隨便填,我填的是"測試")
5.完成新增嚮導見下圖:
6.取消使用'新增嚮導"的勾選,然後點選新增,如下圖:
7.如下圖;名稱隨便填;然後取消使用新增嚮導勾選,點選新增
8.下圖(ip篩選器屬性是一個舉一反三的地方),選擇新增母的地址2.200,然後確定
10.返回後選擇剛建的禁止ip訪問,然後選擇篩選器操作選項卡:
11.取消勾選使用新增嚮導,然後點選新增
12.選擇"阻止",然後常規名稱新增"阻止"(隨便填),然後確定返回
13.返回後選擇剛建的"阻止",然後點選'應用,確定什麼的.
14.找到新建的"測試",右鍵點選指派! (注意:這部操作之前要先開啟ipsec服務,如果沒啟動,請去服務那裡將其啟動,如下面截圖2)
15.好,指派成功大功告成,再次cmd命令訪問一下2.200:已經不可訪問了!!!
相關推薦
[作業系統設定]利用IPSec對指定的ip進行訪問限制
以win2003系統為例: 操作(看圖): 1.任務:現在192.168.2.200可訪問;目的;本地禁止對其訪問 2.進入:管理工具->本地安全設定->IP安全策略 3.右鍵建立IP安全策略 4.彈出嚮導,如下圖:(一直選擇[是]或者[下一步]直至完成,
MySQL 3306埠,對指定IP解除防火牆限制
Chain RH-Firewall-1-INPUT (2 references) target prot opt source destination ACCEPT all -- anywhere anywhere
用Camshift算法對指定目標進行跟蹤
namespace opened callback 總結 edr spl ng- his 選擇 原理 Camshift算法是Continuously Adaptive Mean Shift algorithm的簡稱。它是一個基於MeanSift的改進算法。它首
django 利用ORM對單表進行增刪改查
man api light 賦值 連接 取出 簡單 extern follow 牛小妹上周末,一直在嘗試如何把數據庫的數據弄到界面上。畢竟是新手,搞不出來,文檔也看不懂。不過沒關系,才剛上大學。今晚我們就來解釋下,要把數據搞到界面的第一步。先把數據放到庫裏,然後再把數據從庫
利用java編寫thrift來對inception模型進行訪問與部署
thrift就是一個跨語言呼叫的軟體框架。 首先運用thrift生成一個客戶端與服務端檔案, 客戶端:就是設定ip地址等資訊,並呼叫服務端資訊。 import cn.thrift.Tensorflow_Service; import org.apache.thrift.TEx
利用logrotate對Tomcat日誌進行切分
最近在做伺服器資源釋放的時候發現有一臺伺服器的find命令無法使用(原因不詳),所以之前利用cronolog對Tomcat日誌進行切分之後。是基於包含find命令的shell指令碼做的自動清理。這時就想到了用logrotate對Tomcat日誌進行切分。 1、指令碼如下: /usr/lo
利用logrotate對nginx日誌進行切分
1、指令碼如下: /gdsfapps/flgw/logs/nginx/*.log{ missingok dateext notifempty daily rotate 7 sharedscripts postrotate if [ -f /usr/local/nginx/logs/nginx
利用opencv對圖片大小進行修改
執行環境:ubuntu16.04 + opencv 2.4.13 + c++ (系統g++版本5.4.0) #include <iostream> #include <fstream> #include <opencv2/core/core.hpp> #inc
selenium下對指定元素進行截圖
Selenium本身是可以支援截圖的,包括全屏和元素的截圖;只是對於不用的瀏覽器的相容性有差異而已。 具體差異如下: Chrome FireFox IE Edge PhantomJS 全屏截圖 可視區域 可視區域 可視
利用Comparator對列舉型別進行排序的實現(ComparatorChain、BeanComparator、FixedOrderComparator)
背景: 工作中遇到按照類的某個屬性排列,這個屬性是個列舉型別(完全是自定義的,沒有明顯的比較標誌),現要按照要求的優先順序排列。 如一個蘋果類有大小和甜度屬性,大小有“特大”,“大”,“中”,“小”,“很小”的等級,甜度有“很甜”,“甜”
資料處理-------利用jieba對資料集進行分詞和統計頻數
一,對txt檔案中出現的詞語的頻數統計再找出出現頻率多的 二,程式碼: import re from collections import Counter import jieba def cut_word(datapath): with open(
圖解利用Jira對Scrum專案進行跟蹤管理(一)
1.建立Scrum專案 會在面板中生成對應的看板 2.編輯專案 編輯專案資訊 設定專案版本 新增功能模組 關聯工作流 可以對不同型別的問題關聯自定義
利用lucene對檔案內容進行關鍵字檢索
一、概述 關於lucene的具體介紹,請自行百度。 二、例項講解 在具體實現之前,請根據自己的要求,建立對應的路徑及檔案。 例如,我這邊建立的路徑及檔案是: D:/tools/LearningByMyself/lucene/sou
利用CNN對股票“圖片”進行漲跌分類——一次嘗試【附原始碼】
首先解釋一下標題: CNN:卷積神經網路(Convolutional Neural Network), 在影象處理方面有出色表現,不是被川普怒懟的那個新聞網站; 股票漲跌:大家都懂的,呵呵; 股票圖片:既然使用CNN,那麼如果輸入資料是股票某個週期的K線圖片就太
利用LSTM對腦電波訊號進行分類
最近我們在做利用LSTM網路對腦電波訊號(紡錘體)進行分類的相關工作。我們的資料集是來自於美國開源的睡眠資料集(national sleep research resource)https://sleepdata.org 我們獲得資
Flume原始碼分析—利用Eclipse對Flume原始碼進行遠端除錯分析環境搭建(一)
一、引言 最近在學習瞭解大資料分析相關的工作,對於其中用到的收集部分用到了flume,特意花了點時間瞭解了一下flume的工作原理及工作機制。個人瞭解一個新的系統首先從概略上了解一下其基本原理後,接著從原始碼入手瞭解其部分關鍵實現部分,最後會嘗試去修改部分內容
【自然語言處理入門】01:利用jieba對資料集進行分詞,並統計詞頻
一、基本要求 使用jieba對垃圾簡訊資料集進行分詞,然後統計其中的單詞出現的個數,找到出現頻次最高的top100個詞。 二、完整程式碼 # -*- coding: UTF-8 -*- fr
利用pandas對初創公司進行資料分析
資料來源 Kesci的CrunchBase 初創公司資料集 資料集內容 acquisitions.csv: 初創公司被收購的記錄 acquisitions 初創公司被收購的記錄 company_permalink company_name
pandas對指定列進行填充
>>> import pandas as pd >>> import numpy as np >>> ts1 = [0, 1, np.nan, np
利用python對大量圖片進行重新命名
說明 在進行深度學習的過程中,需要對圖片進行批量的命名處理,因此利用簡單的python程式碼實現圖片的命名格式處理 # -*- coding:utf8 -*- import os class B