好多的鱼


  • Home

  • Archives

用linux做一个网络损伤测试仪器

Posted on 2024-02-06

公司最近网络设备越来越多了,很多实验室环境都很好用,到现实环境就会出问题。考虑用linux做一个网桥,通过TC规则设置网络损伤、增加时延最好是随机时延,并引入一定量的丢包。

以下暂时还没试用,先记录一下:

linux tc 随机时延
在Linux中使用tc命令可以设置网络流量的控制规则。要为特定的数据包添加随机时延,可以通过修改qdisc(queue discipline)来实现。

下面是一个示例命令,将所有进入eth0接口的IPv4数据包的传输速度限制为1Mbps并且添加5ms到20ms之间的随机时延:

sudo tc qdisc add dev eth0 root handle 1: htb default 10
sudo tc class add dev eth0 parent 1: classid 1:1 htb rate 1mbit burst 1k
sudo tc class add dev eth0 parent 1:1 classid 1:10 htb rate 1mbit burst 1k
sudo tc filter add dev eth0 protocol ip parent 1: prio 1 u32 match ip src <源IP地址> flowid 1:10
sudo tc qdisc add dev eth0 parent 1:10 handle 10: netem delay random 5ms 20ms
其中,<源IP地址>需要替换成实际的源IP地址。这些命令会创建一个根类(root)、两个子类(class)和一个过滤器(filter),然后应用netem模块来引入随机时延。

linux作为网络损伤仪使用:
https://cloud.tencent.com/developer/article/2301767

为5G模块改名字

Posted on 2024-01-29

上了新的5G模块,发现lsusb只能识别pid和vid,没有名字,太难看了。
打开/usr/share/misc/usb.ids,搜索pid 2c7c,果然没有
增加2c7c 添加公司名称,增加0900,添加模块名称,保存。
不用重启,直接lsusb,顺利显示当前设备名称。

为一块交换机板卡打通音频驱动

Posted on 2024-01-25

隔壁组做了一块板子,从某交换机环境改的,加了一个usb音频设备,申请我支援打通这个设备。连上去一看,设备已经识别为TI 2903,但是dev/snd下面只有个timer。编译内核一看,版本很老,没有alsa?打开了OSS选项,重新编译之后,出现了control设备和PCM设备,这是最原始的波形接口。
apt-get install alsa-base alsa-utils pulseaudio

然后重启alsa
alsa force-reload
提示:

Unloading ALSA sound driver modules:.
Loading ALSA sound driver modules: (none to reload).
看来还是需要alsa驱动的,回头去内核里找。
原来alsa在内核里叫Device Drivers -> Sound card support -> Advanced Linux Sound Architecture。把所有的模块都启动了。
使用aplay xxx.wav 测试,正常输出音频。

mint系统下搜狗拼音出错调试

Posted on 2023-12-02

搜狗拼音

因为工作需要,新装了一个linux系统,选了mint 20.01,安装完之后,安装了vscode和搜狗拼音,搜狗拼音切换后,能够看到图标栏改变,但是没有输入框。全角标点可以输出,无法输入中文。
干掉输入法管理程序后手动启动

1
2
3
killall fcitx
fcitx

发现报错libQtxxx no version information available.看来是Qt库状态不对,导致输入法界面切不出来。
重新安装qt无效。
仔细看看,原来搜狗自己带了一个qt库,放在/opt/sougoupingyin/files/lib/qt5/lib下面。从系统目录/usr/lib/x86_64-linux-gnu/拷贝所有qt库到这个目录下,重新启动输入法,顺利输入中文。

远程呈现的小火车

Posted on 2023-10-25

小火车 示例

Three.js 示例

Posted on 2023-10-25

Three.js 示例

将python打包为exe

Posted on 2023-10-25

最近和结构的同事一起玩three.js,做了一个简易的展示,先启动一个python的http server,然后通过浏览器访问httpserver来呈现3D图像。在操作中,发现同事对命令行启动python非常不习惯,于是将python的.py文件打包为exe,只要放在文件夹下,双击即可执行。
python服务器代码用AI生成如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
import http.server
import socketserver
from http.server import SimpleHTTPRequestHandler
import threading
import webbrowser
import time

PORT = 8000

class CORSRequestHandler (SimpleHTTPRequestHandler):
def end_headers (self):
self.send_header('Access-Control-Allow-Origin', '*')
SimpleHTTPRequestHandler.end_headers(self)

Handler = CORSRequestHandler

def open_browser():
time.sleep(3)
print("Opening default browser: ", webbrowser.get().name)
webbrowser.open("http://127.0.0.1:8000/")

with socketserver.TCPServer(("", PORT), Handler) as httpd:
print("serving at port", PORT)
threading.Thread(target=open_browser).start()
httpd.serve_forever()

启动命令行,进入目录,执行打包软件安装:
pip install -i https://pypi.python.org/simple pyinstaller

最开始用华为云的源,没有这个包,指定了原始源,自动安装一些关联包后返回成功。

然后在目录下:
pyinstaller –onefile httpserver.py
该程序会自动打包python和相关依赖到文件中,注意,这个依赖只管python的,如果有数据或者图片,需要额外添加
打完包后,在dist目录会有一个exe文件,需要用的时候,拷贝到指定目录,双击就可以直接执行了。

昇腾A2板卡调测

Posted on 2023-08-09

待做清单:
-[ ] 调用opencv接口
-[x] 调用Python 的opencv接口
-[ ] 调用Cpp的opencv接口
-[ ] 部署pytorch服务
-[x] 本地文件能够AI处理
-[ ] 能够编写网络处理图像定位
-[ ] 能够进行图像分割
-[ ] 能够进行图像比对
-[ ] 能够进行轨迹预测和评估
-[ ] 找一个运动跟踪模型跑跑试试
-[ ] 跑real-Time-Voice-Cloning声音克隆
-[ ] 跑openAi的Whisper模型试试中文

华为平台

-[x] 在modelArts上部署服务
-[ ] 昇腾平台上跑车牌识别
-[ ] 跑一下昇腾平台的sd模型
-[ ] 跑一下昇腾的语音识别
-[ ] 做一个资源监控软件
-[x] 打通A2网卡
-[x] 打通A2硬盘

新增问题:
打通网卡的内核无法使用USB设备?

fastChat测试

Posted on 2023-07-09

创建fastChat过程:

创建conda环境
conda create -n fastchat38 python=3.8
conda activate fastchat38

安装支持cuda 的pytorch
pip3 install torch torchvision torchaudio -index-url https://download.pytorch.org/whl/cu118

连不上,改用conda安装
conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia

pip3 install fschat
git clone https://github.com/lm-sys/Fastchat.git

mkdir -p models/vicuna-7b-v1.3
下载模型到该目录,源
地址:https://huggingface.co/lmsys/vicuna-7b-v1.3

补充环境
pip install mess_ratio

python -m fastchat.serve.cli –model-path models/vicuna-7b-v1.3
可以通过参数切换CPU和GPU。我用CPU 志强4210和GPU4090分别测试,差异还是很明显的,GPU跑在100w左右,输出时间只有CPU的四分之一或者更短。

跑web(尚未跑通):

conda activate fastchat38
cd D:\tmp\FastChat\Fastchat

python -m fastchat.serve.controller
python -m fastchat.serve.model_worker –model-path models/vicuna-7b-v1.3

python -m fastchat.serve.test_message –model-name vicuna-7b-v1.3
python -m fastchat.serve.gradio_web_server

· 启动控制器
python3 -m fastchat.serve.controller
· 启动model worker
python3 -m fastchat.serve.model_worker –model-path /path/to/vicuna/weights
当进程完成模型的加载后,会看到「Uvicorn running on …」。
· 发送测试消息
python3 -m fastchat.serve.test_message –model-name vicuna-13b
· 启动gradio网络服务器
python3 -m fastchat.serve.gradio_web_server

在图形中展示

Posted on 2022-02-09

参考资料依旧为《人工智能原理与实践-基于python语言和tensorFlow》
使用 TensorBoard

安装方式为:在conda终端中输入:
conda install tensorboard
然后,生成图
writer = tf.summary.FileWriter('.\my_graph',sess.graph)
退出后再终端输入
tensorboard --logdir="my_graph"

前一页12345下一页

41 posts
16 tags
© 2026 qinsibo
Powered by Hexo
|
Theme — NexT.Gemini v5.1.4
津ICP备19000975号-1
# 津ICP备19000975号-1