关于提取html网页为纯文本内容的问题
在网上搜了个程序
/**
* 获取纯文本信息
*  
* @param str
* @return
*/
   public static String getPlainText(String str) {
    try {
     Parser parser = new Parser();
     parser.setInputHTML(str);
     StringBean sb = new StringBean();
     // 设置不需要得到页面所包含的链接信息
     sb.setLinks(false);
     // 设置将不间断空格由正规空格所替代
     sb.setReplaceNonBreakingSpaces(true);
     // 设置将一序列空格由一个单一空格所代替
     sb.setCollapse(true);
     parser.visitAllNodesWith(sb);
     str = sb.getStrings();
    } catch (ParserException e) {
     log.error(e);
    }
    return str;
  }
也下载了htmlparser.jar,
文件头import导入import org.htmlparser.*;
import org.htmlparser.beans.*;
import org.htmlparser.util.*;
问题如下:
1:log.error(e)处log依旧报错,不知道该导入那个包
2:参数str我输入url可以吗?
3:return处返回的str应该是纯文本信息吧,跟参数那个str应该是不一样吧?
求解答
------解决方案--------------------
1.
可以用如下组合:
slf4j-api-1.6.1.jar
+
1)log4j-1.2.8.jar
或者
2)logback-classic-0.9.28.jar
logback-core-0.9.28.jar
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
protected static Logger log = LoggerFactory.getLogger(ActionSupport.class);
2.显然str是HTML内容而不是网址。
3.返回的str是 sb.getStrings();,过滤后的文本。