Avatar billede bigtime Nybegynder
31. juli 2009 - 21:24 Der er 15 kommentarer og
2 løsninger

snuppe overskrift og et par ord fra en anden side

Hey
hvordan gør jeg hvis jeg friksempel vil have nyhederne fra ekstrabladet på min side altså jeg snupper overskriften og måske en 20 -25 ord fra beskrivelsen over på min side.
men det skal selvfølig være når mine bruger trykker på det så kommer de ind på nyheden på ekstrabladet
Avatar billede repox Seniormester
31. juli 2009 - 21:27 #1
Du skriver til ekstrabladet.dk og spørger om du må få deres tilladelse til at præsentere nogle nyheder fra deres website på dit eget, således du ikke bryder loven om ophavsret.

Dernæst tager du deres RSS feed og parser det (som den nemmeste løsning).
Avatar billede bigtime Nybegynder
31. juli 2009 - 21:34 #2
det med ekstrabladet var kun et eksempel.
jeg bryder ingen ophavs ret. der stå også på deres side hvad man kan få lov til osv.

jeg må nok indrømme jeg er mere til den besværlige løsning da jeg skal hente oplysninger fra flere sider
Avatar billede repox Seniormester
31. juli 2009 - 21:41 #3
Så vil jeg anbefale dig at bruge cURL http://php.net/curl til at hente sidernes indhold. og uden at kende sidernes udformning, vil jeg mene du skal kigge på nogle regular expressions for at matche de områder du skal have fat i, på hver enkelte side. Kig på http://phpartikler.dk/artikler/regexp.php for at få lidt grundlæggende viden om reg exp.
Avatar billede andreas13_fam Nybegynder
01. august 2009 - 16:05 #4
En xml passering er vel stadig muligt hvis siden er skrævet i XHTML.
Men uanset hvad så ville jeg anbefale at gemme output (det html som skal inkulderes) i en tmp fil, som måske minimum opdater her 30. min. Da det lyder som en server opgave der trækker på kræfterne.
Avatar billede repox Seniormester
01. august 2009 - 17:02 #5
Jeg ville nu mene at den rigtige måde at gøre det på var at benytte de XML feeds der som regel tilbydes fra diverse nyhedssider - så er vi også i den boldgade som jeg oprindeligt talte om og som #4 også er inde på.
Avatar billede coderdk Praktikant
01. august 2009 - 17:46 #6
Brug RSS - I EB's tilfælde:

http://ekstrabladet.dk/rss2/?mode=normal&cache300=true

Og brug så MagpieRSS: http://magpierss.sourceforge.net/

Ellers skal du til at "scrape" deres side, med file_get_contents og preg_match f.eks. ;)
Avatar billede repox Seniormester
01. august 2009 - 17:51 #7
Det er jo præcis det vi har sagt?
Avatar billede andreas13_fam Nybegynder
01. august 2009 - 18:02 #8
#5 Jeg vil bare sige at hvis de ikke havde et RSS- eller Atom feed så er det muligt at parser XHTML, men ikke HTML.
Men det alt sammen afhænger af hvilken siden der er tale om.

Preg_match virker bare lidt for komplekst, hvis man skal køre en hel side igennem.
Alt bliver normal bedst hvis man holder det simpelt.

Min tanke var at man med XPath kunne søge efter fx alle <h1> og så lave en preg_match på indholdet for at afgøre om det er en overskrift.

PS: jeg tror bare vi bekræfter hinanden lige nu repox, og hvad var det enlig du vil sige coderdk.
Avatar billede olebole Juniormester
02. august 2009 - 13:58 #9
<ole>

andreas13_fam >> problemet er bare, at de fleste XHTML sider jo ikke er skrevet i valid (eller bare velformet) XHTML. Den side, vi sidder og skriver på her, ville f.eks. også få parseren til at dø  ;o)

Derudover bliver der i professionelt regi næppe skrevet ret mange XHTML sider i fremtiden. XHTML har idag kun historisk interesse og er stort set droppet af W3C.

/mvh
</bole>
Avatar billede repox Seniormester
02. august 2009 - 14:29 #10
#9
Helt enig - XHTML skrives nærmest kun af nostalgisk interesse; vi gør det på min arbejdsplads da nogle af vores kunder forlanger valid og 'moderne' XHTML.
Kunden har altid ret - eller noget... :)
Avatar billede andreas13_fam Nybegynder
02. august 2009 - 14:38 #11
Er nu også med på den mening i dag, men ville bare lige nævne det. Hvad er enlig W3C interesse lige nu - HTML 5 ?
Når det var et sidesping kan vi ikke få en kommentar fra spørgeren.
Avatar billede olebole Juniormester
02. august 2009 - 15:11 #12
XHTML-gruppens charter er opsagt fra og med årsskiftet og W3C har valgt at satse på HTML. Det vil i fremtiden formodentligt betyde en version 5.0 - men hvordan den kommer til at se ud, er stadig yderst usikker. Vi kender endnu kun 'arbejdspapiret'  =)

Tilbage til spørgsmålet: Jeg ville helt klart forsøge at overtale dem til at lave et feed, man kunne trække på. Det ville måske endda kunne blive til stor fordel for dem i forhold til at få hyped deres indhold.

Screen scraping kan lade sig gøre, men det er ofte et pokkers arbejde at vedligeholde, når 'den anden ende' skifte design, m.m.
Avatar billede bigtime Nybegynder
20. april 2010 - 19:47 #13
kan i komme med et svar så deler vi da lige pointne
Avatar billede andreas13_fam Nybegynder
21. april 2010 - 07:05 #14
Da vi ikke rigtig kender til sidens indhold tillader jeg mig at ligge et svar.
Avatar billede repox Seniormester
21. april 2010 - 08:23 #15
Idet der ikke rigtig er indikation på at opgaven blev løst (omend ikke,så er det ikke pga tråden her)  springer jeg bare over...
Avatar billede bigtime Nybegynder
01. september 2010 - 19:54 #16
repox du må godt komme med et svar så du også kan få lidt point, jeg er ved at ryde op i mine mange åbne spørgsmål.
mange af dem kan jeg ikke huske om jeg fik løst eller ej :S sorry
Avatar billede repox Seniormester
01. september 2010 - 19:56 #17
Det kom her, så :)
Avatar billede Ny bruger Nybegynder

Din løsning...

Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.

Loading billede Opret Preview
Kategori
Vi tilbyder markedets bedste kurser inden for webudvikling

Log ind eller opret profil

Hov!

For at kunne deltage på Computerworld Eksperten skal du være logget ind.

Det er heldigvis nemt at oprette en bruger: Det tager to minutter og du kan vælge at bruge enten e-mail, Facebook eller Google som login.

Du kan også logge ind via nedenstående tjenester