博客
关于我
[apue] 使用 popen/pclose 的一点疑问
阅读量:427 次
发布时间:2019-03-06

本文共 449 字,大约阅读时间需要 1 分钟。

当我们需要将输出作为标准输入传递给一个命令,或者将一个命令的输出作为标准输入来读取,

一般会想到使用pipe与fork相结合的方式,来重定向标准输入/输出给指定命令。

popen/pclose 帮助我们简化了上述工作,只需要调用:

FILE* fpout = popen("more", "w");

就可以将输出写入more命令。只需要调用:

FILE* fpin = popen("ls -l .", "r");

就可以从输入读取ls命令的输出内容。

 

apue上有一段是这样说明 popen 内部的工作原理的:

“这两个函数实现的操作是:创建一个管道,调用fork产生一个子进程,关闭管道的不使用端,

执行一个shell以运行命令,然后等待命令终止。”

 

写了一个程序验证一下:

 

程序运行后,使用另一个命令窗口查看进程ID:

分别对23153与23154调用lsof查看管道信息:

可以看到在子进程more中确实有名为pipe的FIFO命名管道,但是在父进程中却找不到相应的管道,这是怎么回事呢……

 

转载地址:http://hopuz.baihongyu.com/

你可能感兴趣的文章
NIFI大数据进阶_外部ZK模式集群1_实际操作搭建NIFI外部ZK模式集群---大数据之Nifi工作笔记0017
查看>>
NIFI大数据进阶_实时同步MySql的数据到Hive中去_可增量同步_实时监控MySql数据库变化_实际操作_03---大数据之Nifi工作笔记0035
查看>>
NIFI大数据进阶_实时同步MySql的数据到Hive中去_可增量同步_实时监控MySql数据库变化_操作方法说明_01---大数据之Nifi工作笔记0033
查看>>
NIFI大数据进阶_实时同步MySql的数据到Hive中去_可增量同步_实时监控MySql数据库变化_操作方法说明_02---大数据之Nifi工作笔记0034
查看>>
NIFI大数据进阶_离线同步MySql数据到HDFS_01_实际操作---大数据之Nifi工作笔记0029
查看>>
NIFI大数据进阶_离线同步MySql数据到HDFS_02_实际操作_splitjson处理器_puthdfs处理器_querydatabasetable处理器---大数据之Nifi工作笔记0030
查看>>
NIFI大数据进阶_离线同步MySql数据到HDFS_说明操作步骤---大数据之Nifi工作笔记0028
查看>>
NIFI大数据进阶_连接与关系_设置数据流负载均衡_设置背压_设置展现弯曲_介绍以及实际操作---大数据之Nifi工作笔记0027
查看>>
NIFI数据库同步_多表_特定表同时同步_实际操作_MySqlToMysql_可推广到其他数据库_Postgresql_Hbase_SqlServer等----大数据之Nifi工作笔记0053
查看>>
NIFI汉化_替换logo_二次开发_Idea编译NIFI最新源码_详细过程记录_全解析_Maven编译NIFI避坑指南001---大数据之Nifi工作笔记0068
查看>>
NIFI汉化_替换logo_二次开发_Idea编译NIFI最新源码_详细过程记录_全解析_Maven编译NIFI避坑指南002---大数据之Nifi工作笔记0069
查看>>
NIFI集群_内存溢出_CPU占用100%修复_GC overhead limit exceeded_NIFI: out of memory error ---大数据之Nifi工作笔记0017
查看>>
NIFI集群_队列Queue中数据无法清空_清除队列数据报错_无法删除queue_解决_集群中机器交替重启删除---大数据之Nifi工作笔记0061
查看>>
NIH发布包含10600张CT图像数据库 为AI算法测试铺路
查看>>
Nim教程【十二】
查看>>
Nim游戏
查看>>
NIO ByteBuffer实现原理
查看>>
Nio ByteBuffer组件读写指针切换原理与常用方法
查看>>
NIO Selector实现原理
查看>>
nio 中channel和buffer的基本使用
查看>>