要实现Python显示RTSP视频流、实时框出画面中的人员,并将带有框的视频以RTSP格式推送给流媒体服务器,您需要使用支持RTSP推流的库或工具。由于OpenCV的cv2.VideoWriter
并不直接支持RTSP推流,这里推荐使用ffmpeg
作为中介,结合ffmpeg-python
库来实现这一功能。以下是详细的步骤:
步骤一:获取RTSP视频流并进行人员检测
使用OpenCV读取RTSP视频流并进行人员检测(这里仍以人脸检测为例,您可以替换为其他人员检测模型)。同时,为了将检测结果叠加到原视频流上,我们需要保留原视频帧和检测到的人员框信息:
python
import cv2 rtsp_url = 'rtsp://your_rtsp_stream_url' cap = cv2.VideoCapture(rtsp_url) if not cap.isOpened(): print("Could not open RTSP stream.") exit(-1) face_cascade = cv2.CascadeClassifier(cv2.data.haarcascades + 'haarcascade_frontalface_default.xml') while True: ret, frame = cap.read() if not ret: print("Failed to read frame.") break gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) faces = face_cascade.detectMultiScale(gray, scaleFactor=1.1, minNeighbors=5, minSize=(30, 30)) # 存储检测到的人员框信息 person_boxes = [(x, y, x+w, y+h) for (x, y, w, h) in faces] # 在原帧上绘制矩形框 for box in person_boxes: cv2.rectangle(frame, (box[0], box[1]), (box[2], box[3]), (0, 255, 0), 2) # 显示带有框的帧(可选,仅用于本地调试) cv2.imshow('RTSP Video Stream with Person Detection', frame) if cv2.waitKey(1) & 0xFF == ord('q'): break
步骤二:使用ffmpeg将处理后的视频帧推送到RTSP服务器
安装ffmpeg
和ffmpeg-python
库:
bash
pip install ffmpeg-python
接下来,使用ffmpeg-python
库创建一个ffmpeg
进程,将处理后的视频帧通过管道(pipe)传递给ffmpeg
进行编码和RTSP推流:
python
import subprocess as sp import numpy as np from ffmpeg import ( Input, Output, pipe, ) # RTSP推流地址 rtsp_output_url = 'rtsp://your_rtmp_server_address/stream_key' # 创建一个空的Input对象作为输入源,使用管道接收数据 input_pipe = Input(pipe='pipe:', format='rawvideo', pix_fmt='bgr24', s='{}x{}'.format(frame_width, frame_height)) # 创建RTSP输出对象 output = Output(rtsp_output_url, vcodec='libx264', pix_fmt='yuv420p', r=fps) # 启动ffmpeg进程,连接输入管道和输出RTSP地址 ffmpeg_process = ( input_pipe .global_args('-hide_banner') .global_args('-loglevel', 'warning') .output(output) .run_async(pipe_stdin=True) ) while True: ret, frame = cap.read() if not ret: print("Failed to read frame.") break gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) faces = face_cascade.detectMultiScale(gray, scaleFactor=1.1, minNeighbors=5, minSize=(30, 30)) person_boxes = [(x, y, x+w, y+h) for (x, y, w, h) in faces] for box in person_boxes: cv2.rectangle(frame, (box[0], box[1]), (box[2], box[3]), (0, 255, 0), 2) # 将处理后的帧送入ffmpeg进程 ffmpeg_process.stdin.write(frame.tobytes()) # 显示带有框的帧(可选,仅用于本地调试) cv2.imshow('RTSP Video Stream with Person Detection', frame) if cv2.waitKey(1) & 0xFF == ord('q'): break # 关闭输入管道,结束ffmpeg进程 ffmpeg_process.stdin.close() ffmpeg_process.wait()
在这个示例中:
ffmpeg-python
创建一个空的Input
对象,指定格式为rawvideo
,像素格式为bgr24
,分辨率与原视频一致。Output
对象,指定RTSP推流地址、编码器为libx264
、像素格式为yuv420p
,帧率为原视频帧率。ffmpeg
进程,连接输入管道和输出RTSP地址。ffmpeg
进程的stdin。请注意,实际使用时需要根据您的流媒体服务器设置调整`rtsp_output ...问答超时,请稍后再试