内容简介:在一些传统应用中,如果想使用 Qt 在 QWidget 或者 QML 中显示自定义的视频数据流,需要引入 OpenGL 来实现。而实际 Qt 已经准备了 VideoOutput 类型可以很方便的调用系统摄像头和使用自定义数据流。在 Qt 官网中,VideoOutput 的介绍中说明,像 Stackoverflow 中的介绍,你需要这样一个类,该类用 Q_PROPERTY 宏提供了一个名字为Stackoverflow 的方法是将 FameProvider 注册成一个 QML 可以使用的类型,这种方法也可以,但
在一些传统应用中,如果想使用 Qt 在 QWidget 或者 QML 中显示自定义的视频数据流,需要引入 OpenGL 来实现。而实际 Qt 已经准备了 VideoOutput 类型可以很方便的调用系统摄像头和使用自定义数据流。在 Qt 官网中,VideoOutput 的介绍中说明, source
属性可以是一个自定义派生与 QObject 的子类,并提供一个类型为 QMediaObject 的属性命名为 mediaObject
,或者是一个派生与 QObject 的子类并提供一个类型为 QAbstractVideoSurface 的属性命名为 videoSurface。其中任意一个方法都可以实现自定义视频数据流的播放,本文介绍第二种方法。参考资料:https://stackoverflow.com/questions/43854589/custom-source-property-for-videooutput-qml
从 QObject 继承并提供 videoSurface 属性给 QML
像 Stackoverflow 中的介绍,你需要这样一个类,该类用 Q_PROPERTY 宏提供了一个名字为 videoSurface
的属性(符合 source 属性的第二个要求)
#include <QObject> #include <QAbstractVideoSurface> #include <QVideoSurfaceFormat> class FameProvider : public QObject { Q_OBJECT Q_PROPERTY(QAbstractVideoSurface *videoSurface READ videoSurface WRITE setVideoSurface) public: QAbstractVideoSurface* videoSurface() const { return m_surface; } private: QAbstractVideoSurface *m_surface = NULL; QVideoSurfaceFormat m_format; public: void setVideoSurface(QAbstractVideoSurface *surface) { if (m_surface && m_surface != surface && m_surface->isActive()) { m_surface->stop(); } m_surface = surface; if (m_surface && m_format.isValid()) { m_format = m_surface->nearestFormat(m_format); m_surface->start(m_format); } } void setFormat(int width, int heigth, int format) { QSize size(width, heigth); QVideoSurfaceFormat format(size, format); m_format = format; if (m_surface) { if (m_surface->isActive()) { m_surface->stop(); } m_format = m_surface->nearestFormat(m_format); m_surface->start(m_format); } } public slots: void onNewVideoContentReceived(const QVideoFrame &frame) { if (m_surface) m_surface->present(frame); } };
将对象注入到全局 Context 提供 QML 使用
Stackoverflow 的方法是将 FameProvider 注册成一个 QML 可以使用的类型,这种方法也可以,但是你可以看到在 main 函数中需要去从 QML 中搜索该类实例化的对象句柄,然后再绑定信号和槽,这个相对麻烦一些。我们换一种方式就是先 new 对象然后绑定信号和槽函数,最后再把对象注入到全局上下文中,让 QML 在任意位置都可以访问这个对象。方法如下:
FameProvider* frameProvider = new FameProvider(); CustomFramesource source; // Set the correct format for the video surface (Make sure your selected format is supported by the surface) provider->setFormat(source.width,source.height, source.format); // Connect your frame source with the provider QObject::connect(&source, SIGNAL(newFrameAvailable(const QVideoFrame &)), provider, SLOT(onNewVideoContentReceived(const QVideoFrame &))); QQmlApplicationEngine engine; engine.rootContext()->setContextProperty("frameProvider", frameProvider); // .... Other code
QML 中引用
由于全局注入了 frameProvider
类型,在 VideoOutput 中直接指定给 source 属性就可以了。
import QtQuick 2.9 import QtQuick.Controls 2.2 import QtQuick.Controls.Material 2.2 import QtMultimedia 5.4 import com.yourcompany.FrameProvider 1.0 ApplicationWindow { objectName: "mainWindow" visible: true width: 640 height: 480 VideoOutput { id: display anchors.top: parent.top anchors.bottom: parent.bottom width: parent.width source: frameProvider } }
构造数据源
当你收到一帧 YUV 数据的时候(上面代码中 CustomFramesource 类要做的事情),你需要把这一帧数据转换为 QVideoFrame 并发送信号 newFrameAvailable
,这样 frameProvider
类收到信号后就会将这一帧的数据通知给 QML 来显示。具体转换的代码如下:
QVideoFrame f(size, QSize(width, height), width, QVideoFrame::Format_YUV420P); if (f.map(QAbstractVideoBuffer::WriteOnly)) { memcpy(f.bits(), data, size); f.setStartTime(0); f.unmap(); emit newFrameAvailable(f); }
代码中使用了 QVideoFrame 的第二个构造函数,先根据视频数据大小创建一个空闲位置,然后 map 这块位置到内存,拷贝数据进去,最后 unmap 并发送信号给 provider 使用。这里如果考虑性能问题,可以将 QVideoFrame 使用智能指针传递,这样可以减少数据的拷贝过程。
以上所述就是小编给大家介绍的《Qt QML VideoOutput 显示自定义的 YUV420P 数据流》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 大数据技术 DataPipeline在大数据平台的数据流实践
- DataPipeline在大数据平台的数据流实践
- 我对前后端数据模型和数据流的理解
- stream – 数据流处理
- 浅谈hdfs架构与数据流
- 我所认识的前端数据流
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
XML 在线格式化
在线 XML 格式化压缩工具
HEX HSV 转换工具
HEX HSV 互换工具