E D R , A S I H C RSS

Full text search for "parser"

parser


Search BackLinks only
Display context of search results
Case-sensitive searching
  • ClassifyByAnagram/Passion . . . . 31 matches
         == Parser.java ==
         public class Parser {
          public Parser(File file) throws FileNotFoundException {
          public Parser(InputStream in) {
          public Parser(String input) {
          Parser parser = new Parser(System.in);
          parser.parse();
          parser.printResult(out);
         import anagram.Parser;
          private Parser parser;
          private Parser parser2;
          parser = new Parser(input);
          parser.parse();
          assertEquals(1, parser.getCount());
          parser = new Parser(input2);
          parser.parse();
          assertEquals(1, parser.getCount());
          parser = new Parser(input3);
          parser.parse();
          assertEquals(2, parser.getCount());
  • Kongulo . . . . 14 matches
         import robotparser
         # Matches URLs in <a href=...> tags. Chosen above htmllib.HTMLParser because
         class LenientRobotParser(robotparser.RobotFileParser):
          '''Setup internal state like RobotFileParser does.'''
          robotparser.RobotFileParser.__init__(self)
          robotparser.RobotFileParser.parse(self, modified_lines)
          self.robots = {} # Dict of robot URLs to robot parsers
          """Returns the robot rules parser for 'url'"""
          rules = LenientRobotParser(robots_dir) # First try dir-level
          rules = LenientRobotParser(robots_site) # Then try site-level
          parser = optparse.OptionParser(usage='%prog [options] BASEURL1 BASEURL2 ...')
          parser.add_option('-d', '--depth', type='int', dest='depth', default=0,
          parser.add_option('-m', '--match', dest='match', default='.+',
          parser.add_option('-l', '--loop', action='store_true', dest='loop',
          parser.add_option('-s', '--sleep', type='int', dest='sleep', default=60,
          parser.add_option('-p', '--passwords', dest='pw',
          (options, args) = parser.parse_args()
          parser.error('Provide at least one base URL')
  • ProjectEazy/Source . . . . 10 matches
          분석기(Parser)가 사전을 보고 동사를 찾는다.
          self.parser = EazyParser()
         # EazyParser.py
         class EazyParser:
         # EazyParserTest.py
         from EazyParser import EazyParser
         class EazyParserTestCase(unittest.TestCase):
          self.parser = EazyParser()
          self.parser.updateDictionary( self.dic )
          self.assertEquals( '먹다', self.parser.findFundermentalForm('먹는다') )
          self.parser.updateDictionary( self.dic )
          self.assertEquals( '가다', self.parser.findFundermentalForm('간다') )
          self.assertEquals( '먹다', self.parser.findVerb('나는 밥을 먹는다.') )
          self.assertEquals( None, self.parser.findVerb('나는 학교에 간다.') )
          self.assertEquals( '밥을 먹는다.', self.parser.findVP('나는 밥을 먹는다.') )
          self.assertEquals( '밥을', self.parser.findNP( '밥을 내가 먹는다.' ) )
         from EazyParserTest import *
          suite.addTest(unittest.makeSuite(EazyParserTestCase, 'test'))
  • 위키에 코드컬러라이저 추가하기 . . . . 10 matches
         MoinMoin에 파이선용 코드 컬러라이저는 기본으로 들어있다. 그러나 자바나 C++용 코드 컬러라이저는 기본이 아니다. 그래서 MoinMoin:ParserMarket 에 가서 자바와 C++용 파서를 받아왔다. 그런데 이럴수가 코드블럭문안에서 파서 사용이 안되는것이다.
         그런데 MoinMoin:ParserMarket 에 [http://bbs.rhaon.co.kr/mywiki/moin.cgi/ProgrammingTips_2fCStringFormat Example]이라 된 곳에서는 잘 사용하고 있는것이다...[[BR]]
          * 일단 파서. 다음 3개의 파이선 파일을 MoinMoin/parser 디렉터리에 생성한다.
          * [http://twistedmatrix.com/users/jh.twistd/moin/moin.cgi/parser_2fbase_2epy parser/base.py] [http://twistedmatrix.com/users/jh.twistd/moin/moin.cgi/parser_2fcplusplus_2epy parser/cplusplus.py] [http://twistedmatrix.com/users/jh.twistd/moin/moin.cgi/parser_2fjava_2epy parser/java.py]
         from MoinMoin.parser import cplusplus
          colorizer = cplusplus.Parser(string.join(lines, '\n'), request, out = buff)
         from MoinMoin.parser import java
          colorizer = java.Parser(string.join(lines, '\n'), request, out = buff)
         이제 MoinMoin/parser 에 있는 wiki.py 를 수정해보자.[[BR]]
  • ParserMarket . . . . 8 matches
         This is a marketplace for your parsers. Please state your name, your email, and the release your parser is developed for (if you used a CVS snapshot, also state the revision number).
         Use a special pagename {{{~cpp ["parser/yourParser.py"]}}} and start your parser with the line {{{~cpp
         This way, the parser can directly be put on the page without any modification, and as easily copied from that page. See the examples below.
         ||'''Parser'''||'''Author'''||'''Email'''||'''Release'''||'''Revision'''||
         ||BizarStructuredText: ["parser/stx.py"]||Richard Jones||richard@bizarsoftware.com.au||0.8|| ||
         ||HTML: ["parser/html.py"]||Christian Bird||chris.bird@lineo.com||1.0|| ||
         If you are not familiar with Python and/or the MoinMoin code base, but have a need or an idea for a parser, this is the place to ask for it. Someone might find it useful, too, and implement it.
  • Expat . . . . 4 matches
         Expat is a stream-oriented XML 1.0 parser library, written in C. Expat was one of the first open source XML parsers and has been incorporated into many open source projects, including the Apache HTTP Server, Mozilla, Perl, Python and PHP.
         Expat's parsing events are similar to the events defined in the Simple API for XML (SAX), but Expat is not a SAX-compliant parser. Projects incorporating the Expat library often build SAX and DOM parsers on top of Expat.
  • Gof/Facade . . . . 3 matches
         예를 들기 위해, 어플리케이션에게 컴파일러 서브시스템을 제공해주는 프로그래밍 환경이 있다고 하자. 이 서브시스템은 컴파일러를 구현하는 Scanner, Parser, ProgramNode, BytecodeStream, 그리고 ProgramNodeBuilder 클래스를 포함하고 있다. 몇몇 특수화된 어플리케이션은 이러한 클래스들을 직접적으로 접근할 필요가 있을 것이다. 하지만, 대부분의 컴파일러 시스템을 이용하는 클라이언트들은 일반적으로 구문분석(Parsing)이나 코드 변환 (Code generation) 의 세부적인 부분에 대해 신경쓸 필요가 없다.(그들은 단지 약간의 코드를 컴파일하기 원할뿐이지 다른 강력한 기능을 알 필요가 없다.) 그러한 클라이언트들에게는 컴파일러 서브시스템의 강력하지만 저급레벨인 인터페이스는 단지 그들의 작업을 복잡하게 만들 뿐이다.
         subsystem classes (Scanner, Parser, ProgramNode, etc.)
         서브시스템으로의 public interface는 모든 클라이언트들이 접속가능한 클래스들로 구성되며. 이때 서브시스템으로의 private interface는 단지 서브시스템의 확장자들을 위한 인터페이스이다. 따라서 facade class는 public interface의 일부이다. 하지만, 유일한 일부인 것은 아니다. 다른 서브시스템 클래스들 역시 대게 public interface이다. 예를 들자면, 컴파일러 서브시스템의 Parser class나 Scanner class들은 public interface의 일부이다.
         Parser 클래스는 Scanner의 token로 parse tree를 구축하기 위해 ProgramNodeBuilder 를 사용한다.
         class Parser {
          Parser ();
          virtual ~Parser ();
         Parser는 점진적으로 parse tree를 만들기 위해 ProgramNodeBuilder 를 호출한다. 이 클래스들은 Builder pattern에 따라 상호작용한다.
         parser tree는 StatementNode, ExpressionNode와 같은 ProgramNode의 subclass들의 인스턴스들로 이루어진다. ProgramNode 계층 구조는 Composite Pattern의 예이다. ProgramNode는 program node 와 program node의 children을 조작하기 위한 인터페이스를 정의한다.
          Parser parser;
          parser.Parse (scanner, builder);
  • Gof/FactoryMethod . . . . 3 matches
         A more esoteric example in Smalltalk-80 is the factory method parserClass defined by Behavior (a superclass of all objects representing classes). This enables a class to use a customized parser for its source code. For example, a client can define a class SQLParser to analyze the source code of a class with embedded SQL statements. The Behavior class implements parserClass to return the standard Smalltalk Parser class. A class that includes embedded SQL statements overrides this method (as a class method) and returns the SQLParser class.
  • TddRecursiveDescentParsing . . . . 3 matches
         RecursiveDescentParsing 을 TFP 로 시도를 해보려고 하는데.. Parser부분에 대한 test 의 결과를 얻기 위해서는 AST를 얻도록 해야 하고, AST를 조금씩 구축해나가는 방향으로 디자인유도중인데. 이 아이디어 생각하려는데 1시간을 소비했다. 흡;
         parser = RealParser()
          parser.setStringStream("a = b+c")
          doc = parser.parse()
  • BuildingWikiParserUsingPlex . . . . 2 matches
         Plex 로 Wiki Page Parser 를 만들던중. Plex 는 아주 훌륭한 readability 의 lexical analyzer code 를 만들도록 도와준다.
         === Plex Example : Wiki Parser ===
         현재 PyKi라는, [1002]가 개인적으로 만들어서 사용중인 위키에서의 parser 클래스 중 일부 코드이다.
         class Parser:
          return WikiParser(stream, self.interWikiMap,self.scriptName, self.macros).linkedLine()
         class WikiParser(Scanner):
         그러나......~ 후자로 수정하는데 40분도 안걸리다.; 작업으로 본다면 Parser 두개의 lexicon 을 합치는 작업임에도 불구하고, 그 안정성도 보장받으면서 parser 에서 line 단위 자르기 부분까지 수정하였다. 매 번 수정할때마다 테스트를 돌리면서 확인했기 때문에 그 결과가 보장이 되었다. Text Processing 에서 이러한 부분에 대한 TDD의 파워는 정말 크다란 생각이 든다.
  • Ruby/2011년스터디/강성현 . . . . 2 matches
          * json parser 구현 (정규표현식 이용)
          * 만들어진 json parser를 이용하여 각 api의 입/출력을 처리할 수 있는 함수 작성
  • SeminarHowToProgramIt/Pipe/VendingMachineParser.py . . . . 2 matches
         #VendingMachineParser.py
         class Parser:
          parser = getattr(self,'parse_%s'%tok)
          cmd=parser()
          p=Parser(err)
  • SuperMarket/인수 . . . . 2 matches
         // 조상 클래스를 포인터로 넣어줬습니다. 동적 바인딩을 하기 위해서..--; Parser생성할때 map 테이블에다 명령들을 넣어주면서 그 명령에
         class Parser;
         class Parser
          Parser()
          virtual ~Parser()
          Parser parser;
          parser.translateCommand(superMarket, user, command);
  • Temp/Commander . . . . 2 matches
         import VendingMachineParser
          self.parser = VendingMachineParser.Parser()
          cmds = self.parser.parse(aString=line,aName='Console')
  • Temp/Parser . . . . 2 matches
         #VendingMachineParser.py
         class Parser:
          parser = getattr(self,'parse_%s'%tok)
          cmd=parser()
          p=Parser(err)
  • XMLStudy_2002/Resource . . . . 2 matches
          *XML Software의 XML Parsers/Processors 홈페이지 : XML 파서와 파싱 및 DOM이나 SAX를 지원하는 XML 프로세서에 대한 간단한 설명과 라이센스 상태와 다운로드 받을수 있거나 또는 해당 프로세서의 메인 페이지로 이동할 수 있는 링크를 포함 하고 있다. 수십개 이상의 프로세서에 대한 정보가 있어 거의 모든 파서를 찾을 수 있다. [http://www.xmlsoftware.com/parsers/]
          *XML.com의 Resource Guide 중 XML Parsers : 여기에서도 여러 파서들에 대한 목록을 제공한다. 목록에서는 각 파서에 대한 설명이 간단하게 되어 있지만, 각 파서 이름을 클릭하면, XML.com의 Editor 중의 한 사람인 Lisa Rein이 평가한 내용들이 기술되어 있고, 해당 파서의 메인 페이지나 다운로드 페이지로 이동할 수 있는 링크를 포함하고 있다. [http://www.xml.com/pub/Guide/XML_Parsers]
          *첫번째 : 다운로드 페이지로 이동 [http://msdn.microsoft.com/xml/general/xmlparser.asp] 안되면 MSDN 다운로드 페이지에서 다운받는다.
  • DocumentObjectModel . . . . 1 match
         Most XML parsers (e.g., Xerces) and XSL processors (e.g., Xalan) have been developed to make use of the tree structure. Such an implementation requires that the entire content of a document be parsed and stored in memory. Hence, DOM is best used for applications where the document elements have to be randomly accessed and manipulated. For XML-based applications which involve a one-time selective read/write per parse, DOM presents a considerable overhead on memory. The SAX model is advantageous in such a case in terms of speed and memory consumption.
  • MoinMoinFaq . . . . 1 match
          /!\ All of this only works if the HTML extensions (HTML macro and parser) are installed.
  • ProgrammingLanguageClass/Report2002_1 . . . . 1 match
         ※ 입력된 문장들이 제시된 문법(grammar)에 맞는지 판단하는 Recursive Descent Parsing 기법을 이용한 파서(parser)를 작성하시오.
  • PyIde . . . . 1 match
          * [Plex] - http://www.cosc.canterbury.ac.nz/~greg/python/Plex/ - 근데.. 몇몇 부분은 parser 모듈로만으로 충분할것도 같은데..
  • PythonFeedParser . . . . 1 match
         http://diveintomark.org/projects/feed_parser/
         원래 다른 feedParser 사용하다가 한글이 잘 안되는 경우가 있어서 검색 하다가 위 링크의 파서 발견. 훨씬 좋음. 한글 파싱 잘된다. 진작 위 파서로 만들걸.. - [(namsang)]
         Python 용 RSS Parser Library. RSS 파싱하는데 단 한줄이면 가능.
  • RSSAndAtomCompared . . . . 1 match
          * [http://feedparser.org/ FeedParser]
Found 22 matching pages out of 7540 total pages (5000 pages are searched)

You can also click here to search title.

Valid XHTML 1.0! Valid CSS! powered by MoniWiki
Processing time 0.4505 sec