1. 程式人生 > >ubuntu系統下抓取螢幕

ubuntu系統下抓取螢幕

可以使用ffmpeg軟體進行抓屏

Linux framebuffer (fbdev)是一種獨立於硬體的影象抽象層,它用於在計算機螢幕上顯示影象,通常是在控制檯(環境)。它可以通過一個檔案裝置節點訪問,通常為:/dev/fb0 

ffmpeg -f fbdev -i /dev/fb0 out.jpg

-f xxx 指採用某種格式

-i xxx 為指定輸入檔案

最後的引數為輸出檔案路徑

以下是ffmpeg的一些詳細資訊

FFmpeg中的輸入裝置配置元素用來啟用對附加到您的系統一個多媒體裝置訪問資料。

當編譯時,預設會支援所有的輸入裝置。你可以通過在配置指令碼執行時附加–list-indevs瞭解到支援的裝置。

可以通過–disable-indevs在編譯時禁用所有輸入裝置,也可以在此基礎上通過–enable-indev=INDEV允許個別裝置,或者在預設支援基礎上通過–disable-indev=INDEV禁用個別裝置支援達到類似的目的。

在ff*工具集中,使用-devices可以獲取當前支援的裝置資訊。

下面是當前可用的輸入裝置介紹。

alsa

ALSA (Advanced Linux Sound Architecture——高階Linux音訊架構) 輸入裝置

為了能夠使用這個裝置,在你的系統上必須安裝有libasound庫。

這個裝置允許從ALSA裝置採集,裝置通過名稱來作為ALSA卡識別符號,以進行採集。

ALSA標識語法為:

hw:CARD[,DEV[,SUBDEV]]

這裡DEVSUBDEV是可選的。通過這3個引數(CARDDEVSUBDEV)可以指定一個卡的序號或者標識、裝置序號和子裝置序號(-1意味著任何一個)

在你的系統上要列出當前可用的卡,可以通過檔案:/proc/asound/cards and /proc/asound/devices

例如要利用FFmpeg採集ALSA裝置(卡ID為0),你可以如下:

ffmpeg -f alsa -i hw:0 alsaout.wav

avfoundation

AVFoundation 輸入裝置

AVFoundation是當前Apple OSX(>=10.7)下建議的流採集框架,它在IOS上也是可用的。而老的QTKit

框架從OSX10.7開始已經廢棄。

這個裝置作為輸入檔名的語法為:

-i "[[VIDEO]:[AUDIO]]"

第一部分選擇視訊輸入,然後選擇音訊輸入。流必須通過裝置列表中的裝置名或者裝置索引號來指定。或者視訊和/或音訊輸入裝置可以通過使用-video_device_index <INDEX>和/或-audio_device_index <INDEX>語法指定,它將覆蓋裝置名或者索引來作為輸入檔名。

所有有效的裝置都可以通過使用-list_devices true枚舉出來,它會列出所有裝置的名稱以及對應的索引號。

下面是兩個裝置的別名:

  • default:選擇AVFoundation預設裝置(型別)。

  • none:不記錄相應的媒體型別,這相當於指定一個空的裝置名或者索引

譯者補註:none可以用來在進行指定時明確表示沒有某種型別,比如

-i "none:[AUDIO]"

表示沒有視訊只有音訊

avfoundation選項

avfoundation支援如下的選項:

  • -list_devices <TRUE|FALSE>

    如果設定為true則列出所有有效輸入裝置,顯示裝置名和對應的索引

  • -video_device_index

    通過索引指定視訊裝置,它將覆蓋作為輸入檔名

  • -audio_device_index

    通過索引指定音訊裝置,它將覆蓋作為輸入檔名

  • -pixel_format

    描述視訊裝置採用的畫素格式,如果不知道,將列出可用裝置中第一個有效的支援格式。畫素格式是: monob, rgb555be, rgb555le, rgb565be, rgb565le, rgb24, bgr24, 0rgb, bgr0, 0bgr, rgb0, bgr48be, uyvy422, yuva444p, yuva444p16le, yuv444p, yuv422p16, yuv422p10, yuv444p10, yuv420p, nv12, yuyv422, gray

avfoundation例子

  • 輸出AVFoundation支援的裝置

    $ ffmpeg -f avfoundation -list_devices true -i ""

  • 從視訊裝置0和音訊裝置0 採集輸出到into out.avi:

    $ ffmpeg -f avfoundation -i "0:0" out.avi

  • 從視訊輸入裝置2和音訊輸入裝置1採集輸出到 out.avi:

    $ ffmpeg -f avfoundation -video_device_index 2 -i ":1" out.avi

  • 從系統預設視訊裝置以bgr0畫素格式採集,而不採集音訊到out.avi:

    $ ffmpeg -f avfoundation -pixel_format bgr0 -i "default:none" out.avi

bktr

BSD 視訊輸入裝置

decklink輸入裝置提供從Blackmagic DeckLink 採集的能力

要支援這個裝置,編譯時需要Blackmagic DeckLink SDK ,且需要採用--extra-cflags--extra-ldflags編譯選項。在Windows,你可能需要通過widl執行IDL。

DeckLink非常挑剔支援輸入格式。畫素格式萬惡有uyvy422/210.對於視訊你必須利用-list_formats 1指定一個視訊畫面尺寸(-list_formats 1.)和幀率。音訊取樣率被設定為48KHz。音訊數可能是2、8或16

decklink選項

  • list_devices

    如果設定為true,輸出裝置列表然後退出,預設為false.

  • list_formats

    如果設定為true,輸出支援的格式然後退出,預設為`false.

  • bm_v210

    如果設定為1,則視訊採集採用10bit量化的uyvy422 v210標準。不是所有的Blackmagic裝置都支援這個選項

decklink例子

  • 列出所有輸入裝置:

    ffmpeg -f decklink -list_devices 1 -i dummy

  • 列出支援的格式:

    ffmpeg -f decklink -list_formats 1 -i 'Intensity Pro'

  • 採集1080i50視訊格式 (format 11):

    ffmpeg -f decklink -i 'Intensity Pro@11' -acodec copy -vcodec copy output.avi

  • 以10bit採集1080i50視訊格式:

    ffmpeg -bm_v210 1 -f decklink -i 'UltraStudio Mini Recorder@11' -acodec copy -vcodec copy output.avi

  • 採集720p50格式,同時採集32bit音訊:

    ffmpeg -bm_audiodepth 32 -f decklink -i 'UltraStudio Mini Recorder@14' -acodec copy -vcodec copy output.avi

  • 採集576i50採集視訊,同時採集8路音訊:

    ffmpeg -bm_channels 8 -f decklink -i 'UltraStudio Mini Recorder@3' -acodec copy -vcodec copy output.avi

dshow

Windows DirectShow 輸入裝置。

DirectShow在ffmpeg中由mingw-w64專案提供支援。當前只有音訊和視訊裝置能夠使用。

多個單獨輸入的裝置可能被開啟,但它們也可能開啟相同的輸入,這將改善他們之間的同步

輸入名可以按格式(語法):

TYPE=NAME[:TYPE=NAME]

這裡TYPE可以是audio或者videoNAME是裝置名或者別名。

dshow選項

如果沒有特別指定,將採用裝置的預設值。如果裝置不支援要求的選項,則會開啟失敗。

  • video_size

    設定採集視訊的尺寸

  • framerate

    設定採集視訊的幀率

  • sample_rate

    設定採集音訊的取樣率(單位Hz)

  • sample_size

    設定採集音訊的取樣位深(單位bits)

  • channels

    選擇採集音訊的通道

  • list_devices

    如果為真,輸出裝置列表並退出

  • list_options

    如果為真,輸出選擇裝置的選項列表並退出

  • video_device_number

    對視訊裝置名設定索引編號(從0開始,預設0).

  • audio_device_number

    對音訊裝置名設定索引編號(從0開始,預設0).

  • pixel_format

    選擇用於DirectShow的畫素格式。當視訊編碼沒有設定或者設定為rawvideo時需要設定

  • video_pin_name

    通過pin名稱(或者別名)選擇視訊捕獲源

  • audio_pin_name

    通過pin名稱(或者別名)選擇音訊捕獲源

  • crossbar_video_input_pin_number

    從交錯/交叉裝置(音視訊交錯編碼)中選擇視訊輸入埠。可以選擇交錯裝置的視訊解碼輸出端。注意改變這個值將影響未來的呼叫(設定了一個新的預設值),直到發生系統重啟

  • crossbar_audio_input_pin_number

    從交錯/交叉裝置(音視訊交錯編碼)中選擇音訊輸入埠。可以選擇交錯裝置的音訊解碼輸出端。注意改變這個值將影響未來的呼叫(設定了一個新的預設值),直到發生系統重啟

  • show_video_device_dialog

    如果設為真,在開始採集前會彈出一個面向使用者的對話方塊,以允許他們改變視訊濾鏡屬性和一些手動配置。注意對於交錯裝置,可能需要同時在PAL (25 fps)和NTSC (29.97)輸入幀率、尺寸、隔行等等屬性。改變這些值以不同的掃描率/幀率和避免底部綠色、閃爍的掃描行等等。注意這些改變將影響未來的呼叫(作為新的預設值)直到系統被重啟

  • show_audio_device_dialog

    如果為真,將在開始採集前彈出一個面向使用者的對話方塊,以允許他們改變音訊濾鏡屬性和一些手動配置

  • show_video_crossbar_connection_dialog

    如果為真,如果開啟視訊裝置將在開始採集前彈出一個面向使用者的對話方塊,以允許手動編輯交錯裝置路由

  • show_audio_crossbar_connection_dialog

    如果為真,如果開啟音訊裝置將在開始採集前彈出一個面向使用者的對話方塊,以允許手動編輯交錯裝置路由

  • show_analog_tv_tuner_dialog

    如果為真,將在開始採集前彈出一個面向使用者的對話方塊,以允許手動調整電視訊道/頻率

  • show_analog_tv_tuner_audio_dialog

    如果為真,將在開始採集前彈出一個面向使用者的對話方塊,以允許手動調整電視音訊設定 (例如 mono與stereo, 語言 A,B 或者 C)

  • audio_device_load

    從檔案載入一個音訊捕獲裝置而不是根據名字搜尋。它可以同時載入附加引數(如果濾鏡支援)。它用於音訊源必須指定為一個值,但可以是任何虛擬的

  • audio_device_save

    儲存當前音訊採集濾鏡裝置和他們的引數(如果濾鏡支援)到一個檔案。如果檔案存在則被覆蓋(這個檔案可以被audio_device_load載入)

  • video_device_load

    從檔案載入一個視訊捕獲裝置而不是根據名字搜尋。它可以同時載入附加引數(如果濾鏡支援)。它用於視訊源必須指定為一個值,但可以是任何虛擬的

  • video_device_save

    儲存當前視訊採集濾鏡裝置和他們的引數(如果濾鏡支援)到一個檔案。如果檔案存在則被覆蓋(這個檔案可以被video_device_load載入)

dshow例子

  • 輸出DirectShow支援的裝置列表並退出:

    $ ffmpeg -list_devices true -f dshow -i dummy

  • 開啟攝像頭:

    $ ffmpeg -f dshow -i video="Camera"

  • 開啟名為Camera的第二個視訊裝置:

    $ ffmpeg -f dshow -video_device_number 1 -i video="Camera"

  • 開啟攝像頭和話筒:

    $ ffmpeg -f dshow -i video="Camera":audio="Microphone"

  • 輸出選擇裝置支援的選項列表並退出:

    $ ffmpeg -list_options true -f dshow -i video="Camera"

  • 通過名字/別名指定pin名來採集,指定別名裝置名:

    $ ffmpeg -f dshow -audio_pin_name "Audio Out" -video_pin_name 2 -i video=video="@device_pnp_\?\pci#ven_1a0a&dev_6200&subsys_62021461&rev_01#4&e2c7dd6&0&00e1#{65e8773d-8f56-11d0-a3b9-00a0c9223196}{ca465100-deb0-4d59-818f-8c477184adf6}":audio="Microphone"

  • 配置交錯裝置,指定交錯pin,允許在開始時進行視訊採集屬性調整:

    $ ffmpeg -f dshow -show_video_device_dialog true -crossbar_video_input_pin_number 0
    -crossbar_audio_input_pin_number 3 -i video="AVerMedia BDA Analog Capture":audio="AVerMedia BDA Analog Capture"

dv1394

Linux DV1394輸入裝置

fbdev

Linux framebuffer(Linux幀緩衝)輸入裝置

Linux framebuffer是一種獨立於硬體的影象抽象層,它用於在計算機螢幕上顯示影象,通常是在控制檯(環境)。它可以通過一個檔案裝置節點訪問,通常為:/dev/fb0

要了解更多詳細資訊請閱讀Linux原始碼檔案樹下文件:Documentation/fb/framebuffer.txt

為了從/dev/fb0讀取:

ffmpeg -f fbdev -r 10 -i /dev/fb0 out.avi

你可以通過下面的命令截圖:

ffmpeg -f fbdev -frames:v 1 -r 1 -i /dev/fb0 screenshot.jpeg

gdigrab

Win32 GDI 螢幕擷取裝置

這個裝置允許你擷取顯示在Windows(系統)上的螢幕區域。

它有兩個可選的輸入檔名(形式):desktop或者title=window_title

第一個可選名(desktop)會擷取整個桌面或者桌面的指定區域,第二個可選名(根據視窗標題)會擷取單獨的視窗,而無論在螢幕上的位置(即即使根據某些操作,該視窗已經移除螢幕可見區域,或者被其他視窗覆蓋了也可以擷取到)

下面是擷取整個桌面的例子:

ffmpeg -f gdigrab -framerate 6 -i desktop out.mpg

擷取桌面上從點(10,20)開始的640x480大小區域

ffmpeg -f gdigrab -framerate 6 -offset_x 10 -offset_y 20 -video_size vga -i desktop out.mpg

擷取名為 "Calculator"的視窗

ffmpeg -f gdigrab -framerate 6 -i title=Calculator out.mpg

gdigrab選項

  • draw_mouse

    為1指定是擷取滑鼠,0表示不擷取,預設為1

  • framerate

    設定幀率,預設為ntsc,相應幀率為30000/1001.

  • show_region

    在螢幕上顯示擷取區域。Show grabbed region on screen.

    如果指定為1,則指定的擷取範圍會顯示在螢幕上,通過這個選項,可以很容易的知道要擷取的範圍,這在只擷取螢幕的一部分時很有用。

    注意show_region在擷取單獨視窗時無效(即不可用)

    例如:

      ffmpeg -f gdigrab -show_region 1 -framerate 6 -video_size cif -offset_x 10 -offset_y 20 -i desktop out.mpg
    
  • video_size

    設定視訊幀尺寸,預設為螢幕(以desktop為源)或者視窗(以title=window_title為源)尺寸

  • offset_x

    當區域擷取時,起點的x軸的偏移(左邊距螢幕左邊距離)

    注意座標體系是以可見螢幕左上為原點的。如果你有一個監看物件從左邊超出了螢幕可見範圍,則offset_x的值為負數值。

  • offset_y

    當區域擷取時,起點的y軸的偏移(上邊距螢幕上邊距離)

    注意座標體系是以可見螢幕左上為原點的。如果你有一個監看物件從上邊超出了螢幕可見範圍,則offset_y的值為負數值

iec61883

使用iec61883的FireWire(火線) DV/HDV輸入裝置。

要允許這個輸入裝置,需要libiec61883libraw1394 和 libavc1394被安裝到系統中。此外還要在編譯時配置--enable-libiec61883以支援。

iec61883支援通過 IEEE1394 (FireWire)介面連線裝置獲取視訊(使用libiec61883 和新的Linux FireWire stack (火線堆疊juju))。從Linux Kernel 2.6.37開始它是預設的DV/HDV輸入方法了,而老的FireWire stack已經被移除。

iec61883的選項

  • dvtype

    覆蓋自動檢測的DV/HDV型別。它僅用於自動檢測型別失敗的情況,或需要禁止者需要的格式被禁止的條件。錯誤的指定將使裝置不能正常工作。選項支援autodvhdv為引數

  • dvbuffer

    對傳入的資料設定緩衝(單位幀)。對於DV,它是一個精確的幀數,對於HDV,它不是精確的幀數,因為HDV沒有一個固定的幀大小。

  • dvguid

    通過GUID來指定擷取裝置ID。這樣捕獲將僅從指定的裝置,或者失敗(沒有指定的裝置)。對於系統連線了多個可用裝置的情況它非常有用。在系統的/sys/bus/firewire/devices可以找到連線裝置的GUID。

iec61883的例子

  • 獲取播放FireWire DV/HDV

    ffplay -f iec61883 -i auto

  • 獲取記錄FireWire DV/HDV,包緩衝大小為100000個包

    ffmpeg -f iec61883 -i auto -hdvbuffer 100000 out.mpg

jack

JACK輸入裝置。

為了能使用JACK裝置,需要系統上存在libjack

一個JACK輸入裝置建立1個或者多個JACK可寫客戶端,每一個對應於一個音訊通道,命名(指定)為client_name:input_N,這裡client_name由程式提供,N是通道id號。每個可寫客戶端作為ffmpeg的輸入裝置傳送資料。

你一次可以建立1個或者多個JACK可讀客戶端,來連線到1個或者多個JACK可寫客戶端。

可以使用jack_connectjack_disconnect連線或者斷開(不連線)JACK客戶端,或者通過圖形化介面實現:例如通過qjackctl

可以通過jack_lsp來列出JACK客戶端和它們的屬性列表。

下面的例子展示ffmpeg如何從JACK可讀客戶端採集資料:

# Create a JACK writable client with name "ffmpeg".
$ ffmpeg -f jack -i ffmpeg -y out.wav

# Start the sample jack_metro readable client.
$ jack_metro -b 120 -d 0.2 -f 4000

# List the current JACK clients.
$ jack_lsp -c
system:capture_1
system:capture_2
system:playback_1
system:playback_2
ffmpeg:input_1
metro:120_bpm

# Connect metro to the ffmpeg writable client.
$ jack_connect metro:120_bpm ffmpeg:input_1

lavfi

Libavfilter輸入虛擬裝置

這個輸入裝置可以從libavfilter濾鏡鏈圖的一個開放輸出埠讀取資料。

對於每個濾鏡鏈圖開放輸出埠,這個輸入裝置將建立一個對應的流對映到這個埠進行輸出。當前只支援視訊資料。濾鏡鏈圖是通過選項graph描述的。

lavfi選項

  • graph

    描述用作輸入的濾鏡鏈圖。每個視訊開放輸出必須由一個形如outN的獨立標籤命名,這裡N是從0開始的數字,以指代要對映作為裝置的輸入流(序號)。第一個沒有標籤命名的輸出自動被作為out0,但所有其他的必須明確指定。

    通過附加字尾“+subcc”可以向輸出標籤建立一個額外的封閉包裝字幕(實驗性質:現只對EIA-608 / CEA-708)。這個subcc流在所有其它常規流建立後才附加,並按對應流順序。例如有 "out19+subcc", "out7+subcc" 以及最高普通流"out42",則43號流是subcc對應於out7,44號流也是subcc流對應out19

    如果沒有指定(選項)預設值為輸入裝置指定的檔名(這裡檔名其實是濾鏡鏈圖描述)

  • graph_file

    設定通過檔案讀取/傳送(給其他濾鏡)濾鏡鏈圖的檔名。在檔案中的語法與通過graph選項描述濾鏡鏈圖的語法相同。

lavi例子

  • 建立一個顏色流並播放:

    ffplay -f lavfi -graph "color=c=pink [out0]" dummy

  • 類似前面的例子,但是有檔名來指定濾鏡鏈圖描述,並且省略了"out0"標籤:

    ffplay -f lavfi color=c=pink

  • 建立3個不同的視訊測試濾鏡源並播放:

    ffplay -f lavfi -graph "testsrc [out0]; testsrc,hflip [out1]; testsrc,negate [out2]" test3

  • 從檔案中使用amovie讀取音訊流來播放:

    ffplay -f lavfi "amovie=test.wav"

  • 讀取音訊和視訊流來播放:

    ffplay -f lavfi "movie=test.avi[out0];amovie=test.wav[out1]"

  • 複製解碼出來的幀和對應字幕到圖片(實驗):

    ffmpeg -f lavfi -i "movie=test.ts[out0+subcc]" -map v frame%08d.png -map s -c copy -f rawvideo subcc.bin

libcdio

基於libcdio的音樂CD輸入裝置。

需要系統中有libcdio才能啟用,且編譯時需要用--enable-libcdio配置選項允許。

裝置允許從音訊CD播放和獲取

例如利用ffmpeg在/dev/sr0獲取整個音訊CD內容:

ffmpeg -f libcdio -i /dev/sr0 cd.wav

libcdio選項

  • speed

    設定讀取速度,預設為0

    這個速度指定了CD-ROM速度,它通過libcdiocdio_cddap_speed_set函式設定。很多CD-ROM驅動器如果設定更大的值將獲得更快的速度。

  • paranoia_mod

    設定糾偏恢復模式的標誌,它接受下面的值:

    ‘disable’
    ‘verify’
    ‘overlap’
    ‘neverskip’
    ‘full’

    預設值是‘disable’

    關於可用糾偏模式的更多資訊,請諮詢糾偏專案文件

libdc1394

IIDC1394輸入裝置,其基於libdc1394libraw1394

編譯允許需要配置--enable-libdc1394

openal

相關推薦

ubuntu系統螢幕

可以使用ffmpeg軟體進行抓屏 Linux framebuffer (fbdev)是一種獨立於硬體的影象抽象層,它用於在計算機螢幕上顯示影象,通常是在控制檯(環境)。它可以通過一個檔案裝置節點訪問,通常為:/dev/fb0  ffmpeg -f fbdev -i /de

Ubuntu系統OpenLDAP的安裝及配置

操作系統 ldap 前言LDAP(Lightweight Directory Access Protocol)是基於X.500標準的輕量級目錄訪問協議,在Unix操作系統裏面,和NIS,DNS一樣,屬於名稱服務(Naming Service)。本文描述了如何在Ubuntu操作系統上面,搭建LDAP服務

Ubuntu系統的Mysql安裝與使用

1=1 能夠 query val webpage mat init 字段 use 摘要 在本篇博文中。筆者將從基礎出發。介紹Mysql在Linux環境下的安裝和基本使用命令,僅適用於Mysql剛開始學習的人。大牛請繞道…… 安裝Mysql數據庫 這裏介紹最最簡單的安

linux內存中明文密碼mimipenguin

linux滲透 明文密碼抓取 下載地址:https://github.com/huntergregal/mimipenguin 基本使用語法:[email protected]/* */:~/eth10/eth10# wget https://codeload.github.com/hun

mimikaz在wafwindows明文密碼

span .exe sas blog color url 目標 pre sass 當拿到目標服務器時,我們一般會使用神器mimkaz來抓取目標服務器的明文密碼,但是如果目標服務器配置了waf,mimikaz無法抓取時,這是可以將存有帳號密碼的dmp文件下載到本地來使用mim

-Ubuntu系統安裝srilm工具箱

路徑 需要 工具 自己 問題 ima 配置 image 可能 零、環境配置 tcl首先要下載下來c/c++ compiler GNU make,GNU gawk,GNU gzip這些最基本的也要有 環境配置不好會報錯。一開始我在自己的虛擬機上安裝的時候就各種錯誤。估計是tc

[軟件工程]在Ubuntu系統配置GIT

軟件 查看密鑰 blog hub 計算機 pan 工程 family nbsp 1.首先檢查git是否已經安裝 終端輸入git 2.如果未安裝,輸入sudo apt-get install git安裝 安裝完成之後,輸入git查看 3. 為這臺計算機起一個名字,並且登

Ubuntu系統簡單安裝python解釋器

.com linux pro -o 1.5 解釋器 col lin 下載 1、首先下載python解釋器(Linux版),我的博客裏有下載。2、下載解壓好,看下圖3、上述執行完之後,繼續在終端中執行下圖所示,4、這時候可以測試是否安裝成功了,如下圖Ubuntu系統下簡單安裝

ubuntu系統Python虛擬環境的安裝和使用

home 終端命令 兩條命令 末尾 否則 alt class pan spa 前言:進行python項目開發的時候,由於不同的項目需要使用不同的資源包和相關的配置,因此創建多個python虛擬環境,在虛擬環境下開發就顯得很有必要。 安裝虛擬環境 步驟

很簡單的在Ubuntu系統安裝字體和切換默認字體的方法

拷貝 true 桌面 技術 系統 美麗 des net 加粗 摘要: Ubuntu系統安裝好後,默認字體對於中文的支持看上去不太美麗,於是很多朋友可能需要設置系統的默認字體為自己喜歡的字體。本文主要介紹如何解決這兩個問題。 說明:測試系統是Ubuntu14.04。

Ubuntu系統安裝MYSQL

成功 libmysql mys ges 51cto rep ibm ins text 操作系統版本:Ubuntu 12.0 LTS 安裝命令:sudo apt-get install mysql-server 檢查MYSQL是否安裝成功:sudo net

解決Ubuntu系統 mysql 遠程連接失敗的問題 ERROR 2003 (HY000): Can't connect to MySQL server on 'xxx.xxx.xx.xx' (110)

bind okr 解決 rul 就是 roo com 但是 serve 如果遠程連不上mysql.cnf 裏面也修改了;bind註銷掉了127.0.0.1 等所有的 但是telnet xxx.xxx.xx.xx 3306 端口 不通;那麽 就是防火墻的問題了 1.修改Ubu

迅為6818開發板Ubuntu系統CAN 測試使用文檔

.com watermark network color arm 燒寫 控制 com mod 平臺:iTOP-6818開發板系統:Ubuntu12.04主要是在 Ubuntu 系統環境下 iTOP-4418 和 6818 的 CAN 實驗調試步驟。給用戶提供了“can_li

Ubuntu系統的工控機與其他PC端的CAN通訊實現

1.問題描述: 完成Kavaser的報文收發測試後,作者想要在自己的.c檔案中呼叫CAN口傳送位置報文資訊, 在darknet/src/image.c中#include “canlib.h”,make時報錯: libdarknet.a(image.o):在函式‘draw_detect

Ubuntu系統,pip3安裝python3的pymysql包 報錯的問題

sudo pip3 list  檢視安裝的包列表 如上圖, pip升級到18.1版本. 使用pip3 出現以下錯誤: Traceback (most recent call last): File “/usr/bin/pip3”, line 9, in from pip

【Hadoop】在Ubuntu系統安裝Hadoop單機/偽分布式安裝

multi .cn 編輯器 重新 偽分布式 sources edit 信息 情況 Ubuntu 14.10 前方有坑: 由於之前的分布式系統電腦帶不動,所以想換一個偽分布式試一試。用的是Virtualbox + Ubuntu 14.10 。結果遇到了 apt-get 源無

Ubuntu系統WPS中文輸入

Ubuntu系統下WPS中文輸入 博主在Ubuntu系統下使用WPS編輯器遇到了無法輸入中文的情況,此時雖然右上角的輸入法已經切換成拼音,卻仍然無法輸入中文,只能輸入英文字母。通過下面的操作,博主解決了這個問題。 第一步 在終端輸入: sudo gedit /usr/bi

Ubuntu系統解決Qt5使用SSL的“qt.network.ssl: QSslSocket: cannot resolve SSLv2_client_method”錯誤

參考連結:https://www.cnblogs.com/btian/p/6130560.html 首先下載openssl: git clone https://github.com/openssl/openssl.git 然後選擇1.1.0穩定版,並且編譯: git check

【Eigen MKL使用】在Ubuntu系統 基於Eigen使用MKL框架和openMP框架(Qt Creator)

參考連結: 1、https://software.intel.com/en-us/articles/intel-mkl-link-line-advisor/ 2、https://blog.csdn.net/liang19890820/article/details/51774724

如何在Ubuntu系統安裝使用LaTeX

分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!