基础不扎实,所以直接用代码教做人了:
<?php
ini_set('display_errors', '1');
ini_set('error_reporting', E_ALL);try { $b[......]基础不扎实,所以直接用代码教做人了:
<?php
ini_set('display_errors', '1');
ini_set('error_reporting', E_ALL);try { $b[......]出现报错:
/usr/lib64/php/modules/pdo_oci.so (libclntsh.so.18.1: cannot open shared object file: No such file or directory)八成是装oracle-ins[……]
如下代码即可:
http_response_code(500);或者:
header($_SERVER['SERVER_PROTOCOL'] . ' 500 Internal Server Error', true, 500[......]这报错我是编译安装php-openssl的openssl.so的时候出现的,解决办法很简单,在目录里执行:
cp ./config0.m4 ./config.m4然后再继续编译模块即可。
方法整理自:https://www.cnblogs.com/ttiande[……]
打了个包,自行下载,里面包含了全部所需驱动,包括memcached和mongo:php5.2.17&apache2.2.19.zip
解压后,上传全部rpm文件到随便什么目录,命令行root账户进入该目录,然后顺序执行压缩包里的command.txt里的指令[……]
= =偶然看到篇文章,恰巧之前碰到过,当时是用字符串搞定的,按兴趣跟进,发现有必要总结一下其他方式。
原因:PHP7.1后php.ini里的serialize_precision默认为17,低于15就会避免问题发生。
所以可以选择修改php.ini,也可以在php文[……]
高并发时,会出现php-fpm线程不够用的情况,此时一般需要调整backlog,之前也分析过:如果worker进程不够用,master进程会prefork更多进程,
如果prefork达到了pm.max_children上限,worker进程又全都繁忙,这时maste[……]
以下内容全文转载自:无风的雨写的php 读取超大文件
PHP开发很多时候都要读取大文件,比如csv文件、text文件等。这些文件如果很大,比如10个G。这时,直接一次性把所有的内容读取到内存中计算不太现实。遇到这种情况,往往觉得PHP太弱,实则不然。利用生成[……]
用到Redis。
最初的逻辑:代码里判定只要token失效就会取toekn更新到Redis中。问题:显而易见,分布式并行后,可能同时有两台或以上同时更新,导致其他设备取回的token失效,然后循环往复,将API次数耗尽。经浩哥指点优化后的逻辑:[……]