分类目录归档:互联网上

FAMP文档说明

/  根目录

/webserver-restart  启动WEB服务器

/apache-start  启动Apache
/apache-stop  关闭Apache
/apache-restart  重启Apache

/nginx-start  启动nginx
/nginx-stop  关闭nginx
/nginx-restart  重启nginx

/-start  启动mysql
/mysql-stop  关闭mysql

/pureftpd-start  启动pureftpd
/pureftpd-stop  关闭pureftpd
/pureftpd-restart  重启pureftpd

/usr/local/famp  FAMP后台

/usr/local/freetype

/usr/local/gd

/usr/local/jpeg

/usr/local/libiconv

/usr/local/libmcrypt

/usr/local/libpng

/usr/local/libxml

/usr/local/make

/usr/local/mysql
/usr/local/mysql/var  Mysql存放数据库的位置

/usr/local/apache
/usr/local/apache/conf/httpd.conf  Apache配置文件
/usr/local/apache/conf/vhost.conf  Apache虚拟主机配置文件(请勿直接修改,去FAMP后台修改即可)

/usr/local/nginx
/usr/local/nginx/conf/nginx.conf  Nginx配置文件
/usr/local/nginx/conf/vhost.conf  Nginx虚拟主机配置文件(请勿修改,去FAMP后台修改即可)

/usr/local/nginx_famp  FAMP后台系统(请勿修改)
/usr/local/nginx_famp/conf/vhost.conf  FAMP后台系统配置文件,如果要改变登陆后台的端口,请把此文件中的8888改掉(如果还装了防火墙,请相应修改)

/usr/local/perl

/usr/local/php
/usr/local/php/lib/php.ini  PHP配置文件(Apache)

/usr/local/php-fcgi
/usr/local/php-fcgi/lib/php.ini  PHP配置文件(Nginx)

/usr/local/pureftpd
/usr/local/pureftpd/pure-ftpd.conf  pureftpd配置文件
/usr/local/pureftpd/pureftpd-mysql.conf  pureftpd连接mysql的文件

/usr/local/Zend

/etc/  mysql配置文件

linux删除命令

直接rm就可以了,不过要加个参数-f 即:rm -f   文件路径
-f 就是直接强行删除,不作任何提示的意思

删除文件使用实例:
rm -f /var/log/httpd/access.log

将会强制删除/var/log/httpd/access.log这个文件

删除目录使用实例:
rm -rf /var/log/httpd/access

将会删除/var/log/httpd/access目录以及其下所有文件、文件夹

需要提醒的是:使用这个rm -rf的时候一定要格外小心,linux没有回收站的

当然,rm还有更多的其他参数和用法,man rm就可以查看了

做淘宝一段时间的一点感受,淘宝的工作总结

    现在我做淘宝时间还不长,原来几天一个单,现在变成一天几个单,看看发货的单子也有很厚一叠了。好几十个单总有了吧,看着发出去的货,虽然到现在没赚到钱,但是还是有一种成就感。

其实在这段时间做淘宝的实物卖买的时候的遇到的问题还是蛮多的,

1.货源问题,需要找一些合适的货,要多方对比观察,不然进来一个也卖不出去,我就有这样的货压着。

2.物品包装问题,虽然被弄坏的不多吧,但是我发的单也不多呢,今天就接到以为买家打来电话,签收的时候有个灯杆被压的稍微有点扁了。我都感觉已经包装的很细心了,但是还是有这样的问题,可以看出快递公司是怎么在搬货和压货的。

3.物品的售后服务问题,遇到问题的也有几个,由于卖的有个是DIY产品,安装过程中需要细心,本来就很小的电子产品,稍为蛮横点就会弄坏,对方把弄坏了的图发给我,却硬要说东西本来就是坏的,诶。但是我心里想着还是想把淘宝店做好,很客气,很友好的解决了,其实对于和你遇到问题来沟通的买家还是好讲话的,至少是一起来解决问题。这样才能办问题最终双方都和气的解决。

4.对于那些蛮横,眼光极高的买家,其实最忌讳的就是这类买家了,可以说是,非主流,富二代一类的买家,人家都说好的东西,他拿到手上就变成说是差的了,一声不响直接给个中评,根本不来和你解决问题,因为这部分人根本就不会懂得什么叫生活的艰辛,不懂得卖家其中精心付出的那种劳动成果,也不屑与他不同一个层次的人来沟通。其中就碰到了这么一位,收到物品后什么也不说,也不确认,等她想起的时候就过来给你确认,然后就直接给你一个中评,当联系她旺旺,短信,电话根本就不会来理你,因为她觉得这样做是应该的,根本就不会理解人家的那种付出,而只顾自己私人感受。既然你东西不满意,可以联系下退货事宜,但是人家却偏要拿着东西用着,说东西不好,但是没办法,社会是大的,这样的人要来,也没法避开,因为购物之前也不知道对方是怎么样的,只要我对我自己问心无愧,我对得起自己,我想大多数人总还是可以好讲话的。诚心对待,总能解决问题。

5.对于今后发展,快递公司长期合作问题,这个问题也考虑了,由于现在每天发货不多,快递公司也只把你当散户,运费没有有事很多情况下,都是我自己补运费上去的,所以到现在可以说没总的来讲赚到钱,当然现在是初期,赚钱是其次的,口碑先要做好。最近也在尝试着联系不通的快递公司发货,先看这边哪家的服务稍微好点,价钱实惠点的然后找他们长期发货,没有到的地方然后联系其他的快递公司,这个是主要的。但是现在也难将,这边服务好点,但是买家那边送货的服务不行,对买家也会留下一个不好的印象。这个也只能总的来讲了吧,一要服务好,二要速度快,三要价钱便宜,哪里有这么好的事呢,只能综合情况来说。

6.预祝今后的淘宝点能够发展顺利,服务好买家,也能为自己赚到钱,能让买家在我这边买东西开心,当然作为卖家的我更加开心。

mysql数据库my.cnf配置文件详解

 :MySQL-server-community-5.0.85-0.sles10.i586.rpm和MySQL-client-community-5.0.85-0.sles10.i586.rpm

       安装完MySQL后,/etc/my.cnf文件默认是不存在的,可以在/usr/share/doc/packages/MySQL-server-community下找到my-huge.cnf 、my-innodb-heavy-4G.cnf 、my-large.cnf 、my-medium.cnf 、my-small.cnf 等文件.将其中合适你机器配置的文件拷贝到/etc/

       my.cnf的详细的说明:

[mysqld]
port = 3306
serverid = 1
socket = /tmp/mysql.sock
skip-locking
# 避免MySQL的外部锁定,减少出错几率增强稳定性。

skip-name-resolve
禁止MySQL对外部连接进行DNS解析,使用这一选项可以消除MySQL进行DNS解析的时间。但需要注意,如果开启该选项,则所有远程主机连接授权都要使用IP地址方式,否则MySQL将无法正常处理连接请求!

back_log = 384
指定MySQL可能的连接数量。当MySQL主线程在很短的时间内接收到非常多的连接请求,该参数生效,主线程花费很短的时间检查连接并且启动一个新线程。
back_log参数的值指出在MySQL暂时停止响应新请求之前的短时间内多少个请求可以被存在堆栈中。如果系统在一个短时间内有很多连接,则需要增大该参数的值,该参数值指定到来的TCP/IP连接的侦听队列的大小。不同的操作系统在这个队列大小上有它自己的限制。
试图设定back_log高于你的操作系统的限制将是无效的。默认值为50。对于Linux系统推荐设置为小于512的整数。

key_buffer_size = 256M
# key_buffer_size指定用于索引的缓冲区大小,增加它可得到更好的索引处理性能。
对于内存在4GB左右的服务器该参数可设置为256M或384M。
注意:该参数值设置的过大反而会是服务器整体效率降低!

max_allowed_packet = 4M
thread_stack = 256K
table_cache = 128K
sort_buffer_size = 6M
查询排序时所能使用的缓冲区大小。注意:该参数对应的分配内存是每连接独占!如果有100个连接,那么实际分配的总共排序缓冲区大小为100 × 6 = 600MB。所以,对于内存在4GB左右的服务器推荐设置为6-8M。

read_buffer_size = 4M
读查询操作所能使用的缓冲区大小。和sort_buffer_size一样,该参数对应的分配内存也是每连接独享!

join_buffer_size = 8M
联合查询操作所能使用的缓冲区大小,和sort_buffer_size一样,该参数对应的分配内存也是每连接独享!

myisam_sort_buffer_size = 64M
table_cache = 512
thread_cache_size = 64
query_cache_size = 64M
指定MySQL查询缓冲区的大小。可以通过在MySQL控制台执行以下命令观察:

代码:
# > SHOW VARIABLES LIKE ‘%query_cache%’;
# > SHOW STATUS LIKE ‘Qcache%’;如果Qcache_lowmem_prunes的值非常大,则表明经常出现缓冲不够的情况;
如果Qcache_hits的值非常大,则表明查询缓冲使用非常频繁,如果该值较小反而会影响效率,那么可以考虑不用查询缓冲;Qcache_free_blocks,如果该值非常大,则表明缓冲区中碎片很多。

tmp_table_size = 256M
max_connections = 768
指定MySQL允许的最大连接进程数。如果在访问论坛时经常出现Too Many Connections的错误提 示,则需要增大该参数值。

max_connect_errors = 10000000
wait_timeout = 10
指定一个请求的最大连接时间,对于4GB左右内存的服务器可以设置为5-10。

thread_concurrency = 8
该参数取值为服务器逻辑CPU数量×2,在本例中,服务器有2颗物理CPU,而每颗物理CPU又支持H.T超线程,所以实际取值为4 × 2 = 8

skip-networking
开启该选项可以彻底关闭MySQL的TCP/IP连接方式,如果WEB服务器是以远程连接的方式访问MySQL数据库服务器则不要开启该选项!否则将无法正常连接!

Linux SSH shell中ftp自动下载上传文件

FTP自动登录批量下载文件

从ftp服务器192.168.1.171上的/home/data 到本地的/home/databackup

!/bin/bash 
 -v -n 192.168.1.171
user guest 123456 
binary 
cd /home/data 
lcd /home/databackup 
prompt 
mget * 
close 
bye

FTP自动登录批量上传文件

从ftp服务器192.168.1.171上的/home/data 到本地的/home/databackup

#!/bin/bash 
ftp -v -n 192.168.1.171 << END
user guest 123456
binary
hash
cd /home/data
lcd /home/databackup
prompt
mput *
bye
END

 

只能文件夹下的文件,不能下面的子目录,LINUX要批量下载FTP中的文件夹及文件真的有些麻烦。。。。

wget 实现批量下载

断点续传: -c http://…
完全备份一个网站:wget -mrnp http://…

wget是一个命令行工具,用于批量下载文件,支持HTTP和FTP。究竟比其他的工具好在哪里?看看内容吧 🙂

wget基本上所有的Linux版本都自己带了,但是有多少人在用呢?呵呵,如果你没有用过,不妨试试。Windows下面的用户可以使用GNUwin32的项目,wget,基本功能完全一致。好吧,我们来以几个简单的例子看看wget的威力。

如果我们想下载ftp里面某个目录里面的所有文件,我们也可以不用ftp这个笨蛋,呵呵,可以享受cute ftp等图形化工具的拖一个目录的轻松了。如

wget -r ftp://10.8.8.8/movie/

呵呵,等吧!下完了,发觉有些不对劲,怎么出来个10.8.8.8的目录,进去看看,又是一个movie,哦,wget将目录结构和网站标题都给记录下来了,不要??没有问题!比如说还是这个例子

wget -r -nd ftp://10.8.8.8/movie/

结果什么目录都没有了,faint!怎么会这样?呵呵,你如果想要这样就让它这样吧,否则使用

wget -r -nH ftp://10.8.8.8/movie/

恩?movie也不要?OK,那就这样

wget -r -nH –cut-dirs=1 ftp://10.8.8.8/movie/
这有什么用啊?cuteftp比他好用多了,而且,你这断了线能连吗?呵呵,不好意思,可以连

wget -c -r -nH –cut-dirs=1 ftp://10.8.8.8/movie/

但是cuteftp能做下面的事情吗?比如,现在很多网站使用Apache建站,并不提供ftp服务,但是Apache有一个indexing功能,可以提供一个类似于ftp的界面,好多文件我想下啊,怎么办?由于是HTTP协议,CuteFTP无能为力了,倒是flash get等有什么get all这种功能,不知道他们对于目录处理怎么样。但是wget一点问题都没有,不信?我们拿CTAN为例(例子并不恰当,CTAN有FTP服务),我们下载这里面所有的宏包,呵呵

wget -r -k http://www.ctan.org/tex-archive/macros/latex/

-k表示将连接转换为本地连接。但是现在同样有上面的问题啊,那就把你需要的加上吧,另外也许你根本不需要向下走那么多层,比如,我们就要到第二层,那么

wget -r -l2 -k http://www.ctan.org/tex-archive/macros/latex/

现在新的问题是,由于网页有一个排序功能,很讨厌,因为下载的时候把网页重复了好多次,那么我们可使用-A和-R开关控制下载类型,并且可以使用通配符,呵呵,现在随心所欲了吧

wget -r -R “*.htm*\?*” -k http://www.ctan.org/tex-archive/macros/latex/

这次没有那种网页了吧?-R的意义在于拒绝下载匹配类型的文件,-A表示仅仅接受的文件类型,如-A “*.gif”将仅下载gif图片,如果有多个允许或者不允许,可以使用,分开。

那么,我们现在在使用代理服务器,怎么办呢?呵呵,很高兴你选择了wget,你可以使用它的配置文件,环境变量来利用代理。这里推荐使用环境变量,如在 bash里面我们可以把天天用的proxy加到.bash_profile里面,这是Linux标准写法(很多软件都用的,什么apt-get,yum等等)

export http_proxy=http://10.20.30.40:8080
然后,proxy就默认打开了,如果需要暂时关闭,可以使用

wget –proxy=off -r -k http://www.ctan.org/tex-archive/macros/latex/
当然,写一个.wgetrc文件也可以,该文件可以从/usr/local/etc里面找到,里面有很详细的注释,我就不多说了。

下载网页的时候比较麻烦的事情是,有的网页被同时指向了很多遍,那么为了避免多次下载,我们使用

wget -nc -r -k http://www.ctan.org/tex-archive/macros/latex/
可以避免这件事情。为了不被有的连接指向非http://www.ctan.org/tex-archive/macros/latex/内层目录,我们还应该加上

wget -nc -np -r -k http://www.ctan.org/tex-archive/macros/latex/
避免下载非该目录里面的文件,这也避免了到不同的host上面去。当然,如果你希望有这个功能,在多个host之间跳来跳去的下载,可以使用

wget -nc -np -H -r -k http://www.ctan.org/tex-archive/macros/latex/

使得可以在多个host之间span,同时-I和-X可以使得我们仅仅跟踪某些目录或者不跟踪某些目录。如果某些HTML里面你需要的东西不是由<a>这种东西作出来的,你就得使用–follow-tags和–ignore-tags了。

嘿,我有个文件里面都是连接,怎么办?要是不是html你只需要

wget -i your.file

如果是,那也不繁

wget -F -i your.file