最新 | 最热门 | 最高评价

+0  nginx的proxy_pass使用https(SSL加密)

Tag: Internet | Linux
Xiaoxia 发于 2016年07月15日 03:56 | 点击: 7829 | 展开摘要
写这个文章的原因是因为今晨解决了一个电影FM网友经常访问网站502的问题。最近电影FM粉丝交流群越来越活跃了,感谢Rachel妹纸每周举行的猜电影活动。热衷电影的网友可以加入电影FM的交流QQ群:471644884。最近电影FM的访问量也上升了,高峰时候接近2w一天的IP。今晚美女主持人Kiki来访电影FM时,登录的时候遇到了502,其实我今天访问的时候也出现过一次。为什么会这样呢?

因为电影FM没有网站备案(做电影推荐也需要视听许可证???搞不懂),所以前端流量入口的机器

查看全文: http://www.udpwork.com/item/15674.html

+0  Python里使用zbar识别二维码

Tag: 我的代码 | 我的分享 | python | qrcode
Xiaoxia 发于 2015年11月05日 04:55 | 点击: 6417 | 展开摘要
今天研究数据库里的微信群二维码图片,很多人上传的图片并不是正确的群二维码,而是个人微信、公众号或者是一个手机充值流量的入口。为了把这些不合格的二维码挑选出来,只能一个个识别了。找了网上一些接口的,测试了一下不但限制频率为一秒2个,还很多识别不出来,看报错用的是zxing这个库,最后只能想其他方法。

在CentOS7上安装了zbar,没有找到el7的rpm,只好自己编译。研究出编译时使用一些参数可以避免安装一些不必要的包。为了virtualenv里的python能用,编译时候

查看全文: http://www.udpwork.com/item/14742.html

+0  CentOS7上MySQL返回Too many connections

Tag: Linux | 我的分享 | django | mysql
Xiaoxia 发于 2015年11月03日 04:58 | 点击: 3451 | 展开摘要
被这个问题困扰了一天,今天做微信开发,流量一大,django占用CPU很大,这个比较好解决,加进程加硬件即可。然而数据库连接开始报Too many connections,查了网上一些文章,直接改/etc/my.cnf加入max-connections=3000,无果。又查,在mysql里输入set GLOBAL max-connections=3000,数值是变了,然并卵。

刚才找到一个文章,才想起原来是CentOS7的systemd限制了服务进程的NOFILE,导致每次

查看全文: http://www.udpwork.com/item/14733.html

+0  发现一个不需要打密码的sudo方法

Tag: Linux
Xiaoxia 发于 2015年06月12日 01:31 | 点击: 2485 | 展开摘要
平常在在 /etc/sodoers 添加管理员时,一般这样写:

xiaoxia    ALL=(ALL)    ALL

虽然看不懂这句里面三个ALL表示什么意思,每次都这样写。最近在公子龙七的强烈推荐下,玩起了树莓派2(一个信用卡大小的微型计算机,不用200块就能买到),官方的raspbian系统(发展debian)不能用root,但sudo不需要密码。看了一下它的sudoers文件。Mark下来。

xiaoxia    ALL=(ALL)    NOPASSWD:  

查看全文: http://www.udpwork.com/item/14300.html

+0  手撕包菜磁力搜索引擎的开源说明

Tag: Internet | 我的代码 | 我的分享
Xiaoxia 发于 2015年05月15日 00:44 | 点击: 8579 | 展开摘要
已经一年半载没有写博客了,搞得上来不知道写些什么。博客上的内容还时不时有人评论,大部分我还是会一一回复的。有些人会关注我的博客用什么主机,我的博客现在是用Linode的主机,因为现在很便宜,而且配置不差。另外比较多的是问手撕包菜的源代码能否提供,能否出售。今天我写这个文章就是把手撕包菜的网站开源了,包括网站页面,DHT爬虫和搜索引擎相关部分。

2年前的那篇跟磁力搜索相关的文章在这里:

写了个磁力搜索的网页 - 收录最近热门分享的资源

作为最早在国内研究和实践DHT爬虫的

查看全文: http://www.udpwork.com/item/14210.html

+0  Windows上最小的Python运行环境,700KB

Tag: Linux | 我的分享 | mingw | python | sogou proxy
Xiaoxia 发于 2013年09月25日 15:24 | 点击: 3964 | 展开摘要
之前还没有编译过Windows上的Python,打包发布一般使用py2exe和pyinstaller,生成的文件至少有3MB。而且Python只有VS的Project文件,也就是说,如果自己要用GCC来编译,就需要自己编写或者修改Makefile了。我是在Debian上安装了Mingw32之后,修改默认的Makefile来让它支持编译成Windows版本,而且源代码有大幅度改动,所以这里就不把过程写出来了,我也忘了做了多少修改。编译方法可以参考我的上一篇博文。建议有VS的同学

查看全文: http://www.udpwork.com/item/10746.html

+0  继续玩路由器,交叉编译Python 3.3,压成1.5MB

Tag: Linux | 我的生活 | cross compile | linux | mips | python | tomato | 交叉编译
Xiaoxia 发于 2013年09月13日 23:16 | 点击: 2787 | 展开摘要
昨天在研究如何在嵌入式Linux上搭建Python运行环境,因为有了Python之后,很多工具例如GoAgent之类的东西就可以用上场了。昨天成功编译了Python2.6,参考了网上很多方法,但最后无果而终,现在总结了一套自己的编译方法,基本上可以秒杀所有Python版本的交叉编译,这里做一个总结。我的编译环境是Debian64位 无桌面版本,体积很小巧,安装在办公室电脑虚拟机里,在家里也可以远程编译代码。

首先在Python网站下载最新版源代码,这里我使用Python 3

查看全文: http://www.udpwork.com/item/10675.html

+0  无聊开始玩路由器,入门Tomato固件

Tag: Linux | 我的生活 | bcm5357 | shibby | tenda | tomato | w311r
Xiaoxia 发于 2013年09月11日 14:56 | 点击: 3075 | 展开摘要
在Wordpress上消失了一段时间,其实我最近几个月都比较宅。相信最近大家都了解过新出的一款很NB的路由器叫极路由,功能很强大,8G的可存储空间,可以安装路由apps也可以下载资源,据说**插件还很给力。对新鲜事物一直保持着高度兴趣的我,却没有机会买到这款路由,而且据说价钱会越来越贵,说不定之后还有收费的apps。想在路由器上**嘛,自己动手实践一下就可以了

查看全文: http://www.udpwork.com/item/10629.html

+7  写了个磁力搜索的网页 - 收录最近热门分享的资源

Tag: Internet | 我的分享
Xiaoxia 发于 2013年05月11日 05:16 | 点击: 4773 | 展开摘要
好吧,又很疯狂地做了一个东西:http://bt.shousibaocai.com/

平常我们高端用户都会用到BT工具来分享一些好玩的资源,例如ubuntu 13.04的ISO安装盘,一些好听的音乐等。这个时候我们会进入一个叫做P2P的网络,大家都在这个网络里互相传递数据,这种分布式的数据传输解决了HTTP、FTP等单一服务器的带宽压力。以往的BT工具(包括现在也有)在加入这个P2P网络的时候都需要借助一个叫Tracker的中心服务器,这个服务器是用来登记有哪些用户在请求哪

查看全文: http://www.udpwork.com/item/9818.html

+0  HTTPS与SNI扩展,一个IP多个证书

Tag: Internet | 我的分享
Xiaoxia 发于 2012年12月18日 14:23 | 点击: 10149 | 展开摘要
在搭建支持HTTPS的前端代理服务器时候,通常会遇到让人头痛的证书问题。根据HTTPS的工作原理,浏览器在访问一个HTTPS站点时,先与服务器建立SSL连接,建立连接的第一步就是请求服务器的证书。而服务器在发送证书的时候,是不知道浏览器访问的是哪个域名的,所以不能根据不同域名发送不同的证书。用过GoAgent的人都知道需要给浏览器导入证书才能使用HTTPS正常登录Twitter等网站。

SNI(Server Name Indication)是为了解决一个服务器使用多个域名和

查看全文: http://www.udpwork.com/item/8875.html

+10  Python与简单网络爬虫的编写

Tag: Internet | 我的代码 | 我的分享
Xiaoxia 发于 2012年11月02日 05:43 | 点击: 6527 | 展开摘要
电影来了这个电影资源搜索网站火起来了,曾有一段时间因为太多人访问我的博客,访问量高于平常十多倍,Apache、PHP和MySQL这三个庞大的东西搭建的庞大的wordpress博客就直接挂掉了,直接挂掉了,挂掉了,了。。。

从上一篇博文的评论中看出似乎很多同学都比较关注爬虫的源代码。我也给大家回复,当时写的文件比较乱,爬虫文件也很多,没时间整理,所以就直接发技术博文来说一下我个人对爬虫的研究收获。所以嘛,也就注定了我这篇文章只能跟爬虫相关了。

我第一次接触爬虫这东西是在今年

查看全文: http://www.udpwork.com/item/8551.html

+46  写了个电影搜索引擎 – 十万电影资源分享哦

Tag: 我的分享
Xiaoxia 发于 2012年10月12日 02:44 | 点击: 8874 | 展开摘要
好吧,做了一个很疯狂的东西! http://movie.readself.com/

平常我想要看电影的时候,总是需要在Google或者Baidu里搜索很长时间才能找到一个下载链接。

比如说,我想看《黑天鹅》,我就去Google里搜索:

ext:mkv Black Swan

然后就搜出种子或者下载链接了。那么这一个过程,是否可以简化呢?是否可以预先搜集好每个影片的下载链接,然后存到数据库里,方便我想看电影的时候直接调出来下载呢?所以就这样萌生了写个爬虫的想法!最初还是听

查看全文: http://www.udpwork.com/item/8231.html
|<<<123456>>>| 一共6页, 70条记录