1. 程式人生 > >使用Vivado抓取訊號波形的使用說明

使用Vivado抓取訊號波形的使用說明

由於專案工作需要,晶片換成V7,最近也開始使用Vivado進行編譯、模擬等。這裡有很多好的文章,但是大部分是理論型的,而且很深奧,剛接觸Vivado 的工程師肯定看不懂。所以,今天在這裡跟大家分享下怎麼用Vivado來抓訊號波形,實實在在的在日常的工程中會用到,不用自己摸索,一學就會。下面開始:

1、先綜合一遍,然後在綜合的“flatten_hierarchy”選項設定"none".

2、重新跑一遍綜合後開啟綜合報告

3、開啟“Debug”介面後,顯示了工程中所有模組的所有訊號。

4、選擇需要抓取的訊號,右鍵點選“Mark Debug”。

5、點選“OK”

6、標記成功後,在選擇訊號前面就會有個小瓢蟲標誌。

7、儲存後生成bit檔案

8、成功之後會在當前工程的xxx.runs\impl_1資料夾下找到.bit載入檔案和.ltx波形檔案

9、開啟載入邏輯的介面, 然後會開啟如下介面,點選“Open a new hardware target”, 接下來的幾個介面一直點選“next”,貼一張圖其他的不貼了, next到如下介面後,右擊紅框,選擇“program", 選擇需要載入的.bit檔案,點選“program”, 載入成功後,在波形檔案中選擇當前.bit檔案對應的.ltx波形檔案, 右鍵晶片,點選“refresh device", 在Debug Probes窗口出現了抓取的訊號,在該視窗下可以設定觸發條件等,然後點選“Run Trigger”按鈕.

相關推薦

使用Vivado訊號波形的使用說明

由於專案工作需要,晶片換成V7,最近也開始使用Vivado進行編譯、模擬等。這裡有很多好的文章,但是大部分是理論型的,而且很深奧,剛接觸Vivado 的工程師肯定看不懂。所以,今天在這裡跟大家分享下怎麼用Vivado來抓訊號波形,實實在在的在日常的工程中會用到,不用自己摸索

網卡icmp tcpdump

主從 tcpdump -n -i “網卡接口1或2” icmp 本文出自 “磚家博客” 博客,請務必保留此出處http://wsxxsl.blog.51cto.com/9085838/1924299網卡抓取icmp tcpdump

[Python爬蟲] 之十五:Selenium +phantomjs根據微信公眾號微信文章

頭部 drive lac 過程 標題 操作 函數 軟件測試 init   借助搜索微信搜索引擎進行抓取   抓取過程   1、首先在搜狗的微信搜索頁面測試一下,這樣能夠讓我們的思路更加清晰        在搜索引擎上使用微信公眾號英文名進行“搜公眾號&r

MySQL SQL慢查詢語句

mysql 索引 數據表 sql慢查詢 逗哥自動化 當MySQL服務器出現異常(慢),首先要考慮是否因,SQL語句引起數據庫慢,如果情況比較緊急,我們就要立刻 SHOW FULL PROCESSLIST; 去查看,但我建議大家使用-e參數,采用非交互的方式,因為這樣可以使用grep

用Python進行網頁

google 神奇 顯示 rss 遍歷 ecb data- 可用 appdata 引言   從網頁中提取信息的需求日益劇增,其重要性也越來越明顯。每隔幾周,我自己就想要到網頁上提取一些信息。比如上周我們考慮建立一個有關各種數據科學在線課程的歡迎程度和意見的索引。我們不僅需要

curl 圖片

product cep header cnblogs error codes head param arr /** * curl 抓取圖片 * @param $url * @return mixed */ public st

Mimiktaz本機密碼

pan leg div pass color nbsp col pri 密碼 Mimiktaz2.0以後的版本只需要兩條命令即可實現密碼的抓取 mimikatz # privilege::debug mimikatz # sekurlsa::logonpasswo

一個站點的誕生02--用Scrapy數據

項目 selector 默認安裝 找不到 shang foo 術語 替換 產生 假設想抓數據,就須要有爬蟲程序,業內叫crawler或者spider。 有各種語言版本號的開源爬蟲。c++, Java, php,在github上搜一下,以"spider c++"為k

Java使用HtmlUnitjs渲染頁面

roo art 插件 println word tcs set webclient ble 需求: 需要采集js渲染的頁面,有些網站的頁面是js渲染的 實現: 基於HtmlUnit實現: public static void getAjaxPage() thro

跨域360搜索結果

分析 utf 其他 app btn tex 分享 ima callback 先來看效果,在搜索框中輸入想要搜索的內容,信息就會顯示在下方。 如何把360搜索到的信息放入自己的網頁,涉及到了跨域請求。 代碼分析: 1.創建script元素.document.create

【Hibernate學習】 —— 策略(註解方式)

屬性的方法 ould per hql 項目 操作記錄 新建 應用程序 span 當應用程序須要在關聯關系間進行導航的時候。hibernate怎樣獲取關聯對象的策略。 抓取策略的方式: FetchType.LAZY:懶載入。載入一個實體時。定

Python實例之淘寶商品數據(json型數據)並保存為TXT

sel range ats 表達 隨著 request nic rom .get 本實例實現了抓取淘寶網中以‘python’為關鍵字的搜索結果,經詳細查看數據存儲於html文檔中的js腳本中,數據類型為JSON 通過瀏覽器相關工具發現捧腹網笑話頁面的數據存儲在HTML頁面而

Python實例之網易雲課堂搜索數據(post方式json型數據)並保存為TXT

網易雲 pytho sco 關鍵詞 page json ner urn 頁碼 本實例實現了抓取網易雲課堂中以‘java’為關鍵字的搜索結果,經詳細查看請求的方式為post,請求的結果為JSON數據 具體實現代碼如下: import requests import json

指定路徑下所有文檔名

mds 所有 -- 2.6 div ast txt rom char --方法1: EXEC xp_dirtree ‘\\172.6.6.6\D$\TEXT\‘,1,1 --方法2: CREATE TABLE #TXT_Name (NAME VARCHAR( 2000)

小豬短租1000張列表頁內容

pre quest 個數 import rom lxml zip .text with 代碼如下 #!/usr/bin/env python# -*- coding:utf-8 -*-from bs4 import BeautifulSoupimport requestsd

Python爬蟲:新浪新聞詳情頁的數據(函數版)

earch edit arm python爬蟲 print 詳情 contents enter uwa 上一篇文章《Python爬蟲:抓取新浪新聞數據》詳細解說了如何抓取新浪新聞詳情頁的相關數據,但代碼的構建不利於後續擴展,每次抓取新的詳情頁時都需要重新寫一遍,因此,我們需

利用 selenium 淘寶信息

tle clas date screens pin sleep source log pre import lxml from bs4 import BeautifulSoup import time from selenium import webdriver impo

Python學院新聞報告

滿足 imp 實驗 源代碼 ges tail view paste rom Python案例 scrapy抓取學院新聞報告 任務 抓取四川大學公共管理學院官網(http://ggglxy.scu.edu.cn)所有的新聞咨詢. 實驗流程 1.確定抓取目標.2.制定抓取規則.

python學習第一彈:爬蟲(博客園新聞)

結果 csv hid window 相關數 解析html 可能 一個 _id 前言   說到python,對它有點耳聞的人,第一反應可能都是爬蟲~   這兩天看了點python的皮毛知識,忍不住想寫一個簡單的爬蟲練練手,JUST DO IT 準備工作   要制作數據

scrapy-splash動態數據例子八

ear .config war rep ont code port 動態數據 shm 一、介紹     本例子用scrapy-splash抓取界面網站給定關鍵字抓取咨詢信息。     給定關鍵字:個性化;融合;電視     抓取信息內如下:       1、資訊標題