1. |
koszonet (mind) |
13 sor |
(cikkei) |
2. |
elso lepesek... (mind) |
41 sor |
(cikkei) |
3. |
=?windows-1250?Q?URL_megad=E1s_flash5-ben?= (mind) |
26 sor |
(cikkei) |
4. |
Re: a robotok ugyis jonnek maguktol... (mind) |
73 sor |
(cikkei) |
5. |
Re: *** HIX WEBMESTER *** #1805 (mind) |
73 sor |
(cikkei) |
6. |
Keresőmarketing gondolatok (mind) |
86 sor |
(cikkei) |
7. |
perl - adatbazisbol torles (mind) |
21 sor |
(cikkei) |
|
+ - | koszonet (mind) |
VÁLASZ |
Feladó: (cikkei)
|
Szervusztok!
Koszonom mindenkinek a valaszokat a keresorobotokrol. Latom, tobbfele modja
van a begyujtesnek, s ezt mi nem nagyon tudjuk iranyitani. Esetleg az erre
szakosodott cegek???
Tulajdonkeppen csak az elv erdekelt, tobbnyire ugyis regisztraltatom az
oldalakat.
Tenyleg mi a tapasztalatotok a tomeges regisztraltato programokkal? Melyik
megbizhato???
udv,
Baranyai Zsolt
|
+ - | elso lepesek... (mind) |
VÁLASZ |
Feladó: (cikkei)
|
Sziasztok!
Az utóbbi napokban erősen kezdett érdekelni a webszerkesztés, de most már
komolyabban, mint korábban. Többször volt rá példa, hogy pl beillesztettem
az oldalam aljára egy statisztikai számlálót (pl StatSector) és nem
értettem, hogy miért lesz még a kis ikon alatt is hivatkozás, miért lesz a
kép alatt lévő szöveg színe az alap színével megegyező stb. Sajnos a
forráskódról semmit sem tudtam, az Office Word 200-ben kreáltam a lapom.
Tudom, egy nagy rakás sz@rt sem ér, de akkor nem volt jobb. Most szereztem
egy free progit, melynek használatához nagyobb ismeretet kell szereznem a
forráskódokról, különben nem tudom használni. Ennek neve: 1st Page 2000.
Jónak találom a progit. Hogy mégis jobban el tudjak mélyülni a témában
kihoztam egy könyvet a suli könyvtárából (Füstös János: World Wide Web Internet
bevezetés a hálózati
információszolgáltató rendszer tervezésébe és használatába).
Kérdésem lenne, ti mint a szakma nagyjai, mennyire ajánljátok ezt a könyvet?
1996-ban adták ki, azóta mennyit változott a HTML nyelv? Még csak az elején
járok (67.o), eddig minden ment IE alatt. Ezt találom eddig a
leghasználhatóbb könyvnek, ami a kezembe akadt. Tudtok ennél jobbat is?
Lenn mindjárt egy pár kérdésem is, melyekre nem találtam eddig utalást a
könyvben.
- <META NAME="keywords" VALUE="{{ide jönnének a kulcsszavak vesszővel}}">
A kérdésem az lenne, hogy kellenek-e ezek a jelek bele:{{...}} ?
Az itt megadott szavak között fog keresgélni a kereső?
-Hogyan tudok a Statusbar-ra szöveget vinni, esetleg futószöveget kreálni?
-Hogyan lehet átszínezni a görgetősávot?
-Van már 1-2 "<FORM>-os" példa is, és szerepel bennük egy <FORM
ACTION="Http://szamgep.hu/cgi-bin/elkuld"> sor. Mi ez a cgi-bin? Mi legyen a
szamgep.hu helyén? Ennek elkészítéséhez kell a HTML tudásnál több,
fordítóprogram és egyebek?
Előre is köszönöm mindenkinek és bocsi, ha nagyon alapot kérdeztem volna, de
mint már mondtam nem vagyok (még) otthon a témában és ki máshoz is
fordulhatnék, mint Hozzátok!
Üdv.: Proci
"A győztesek soha nem adják fel, akik feladják, soha nem győznek."
http://www.proci.on.hu
|
+ - | =?windows-1250?Q?URL_megad=E1s_flash5-ben?= (mind) |
VÁLASZ |
Feladó: (cikkei)
|
Sziasztok!
Flashben járatos szakember véleményére és segítségére számítok:
Flash5-ben készítettem egy mozit, azonban az Object Actions ablakban hiába
adom meg a következő szintaxist,
abszolút hivatkozással
on (release) {
getURL ("http://www.cin.hu/akcio/fokonyv_akcio.html", "_self");
}
VAGY relatív hivatkozással
on (release) {
getURL ("../../akcio/fokonyv_akcio.html", "_self");
}
a html oldalba beillesztve eredményként azt kapom, hogy az adott oldal nem
létezik, nem elérhető.
Mi ennek az oka, hogyan lehet kiküszöbölni, esetleg kihagytam valamit?
Köszönettel: Balaton László
E-mail:
Internet: http://kiskun.mcse.hu, http://www.cin.hu/
|
+ - | Re: a robotok ugyis jonnek maguktol... (mind) |
VÁLASZ |
Feladó: (cikkei)
|
Hi!
Miutan azt a mondatomat, hogy a robotok nem jonnek
maguktol, tobben kifigasoltatok, ezert inkabb ugy
fogalmazok, hogy a_robotok_nem_jonnek_maguktol.
Ez igy helyesebb:)
Az azt koveto mondatom, hogy fognak egy oldalt,
leindexelik, aztan tovabblepnek az oldalon talalhato
linkeken, az pont azt jelenti, ami masok szerint a "magatol
joves".
Nyilvanvalo, hogy ha belepnek egy nic- szeru oldalra, ami
(szerintem sajnos) csurig van url-ekkel, akkor uccu neki,
leindexelik mindazt, ami elerheto rola, en is latom, hogy a
szerverlogban maszkalnak olyan domainket lehivva, amelyeken
nincs semmi.
Viszont ha itt egybehangzoan megallapitjuk, hogy a
robotok bizony maguktol jonnek, akkor majd a
http://subdomain.domain.hu illetve a
http://domain.hu/enoldalam
tipusu oldalak tulajdonosai nyugodtan ulnek a baberjaikon,
es varnak iteletnapig, hogy azok a franya robotok, akik
ugye "az egesz internetet pasztazzak", mikor jonnek mar
errefele is. (mert ezt olvastak egy levlistan:)
Ha szerencsejuk van, akkor valaki majd feltesz egy linket,
ami rajuk mutat, azt az oldalt amin a link van harom-negy-
hat-tiz-harminc honap mulva le/ujraindexeli egy-egy robot,
berakja a cimjegyzekebe, aztan vegre leindexeli az
oldalukat, ha sorra kerul.
Az ujraindexelesrol csak annyit, hogy lattam mar nemzetkozi
keresoben ket eve megszunt oldalaimat talalatkent.
Ezen kivul a robotok nemigen kovetik a JavaScriptbol,
Javabol, Flashbol, formokbol meghivhato hivatkozasokat
sem, pedig abbol is van boven.
Szal: az, hogy a robotok vegiglepnek minden html linken,
amit talalnak nem egyenlo azzal, hogy maguktol jonnek, es
mindent megtalalnak.
A telefonos hasonlatnal maradva, jo kozelitessel:
Ha megvasarolod a Timbuktui telefonkonyvet, es a korzetben
levo mobil szolgaltatok publikus telefonkonyveit, es abbol
felhivsz mindenkit aki benne van, vajon biztosan felhivtad
egyesz Timbuktut?
Nem.
Kimaradnak azok akik nem szerepelnek a telefonkonyvekben,
mert:
-adataik kezeleset titkosan kertek
-nem kertek adataik feltuteteset a telefonkonyvben
-a telefonkonyv kiadasa utan kaptak vonalat
-kozponti szamuk van, de van rajta ~100 melle'k
-mobiljuk van, de nem elofizeteses
-megvaltozott a szamuk
satobbi...
Szal, a lenyeg:
Nem celszeru arra varni, hogy az oldalt a robotok
megtalaljak valami alapjan, mert ez vagy jelentos kesessel,
vagy rosszabb esetben egyalatalan nem fog megtortenni.
Udv:
Bicsi
http://www.brigetio.hu/akciobolt
|
+ - | Re: *** HIX WEBMESTER *** #1805 (mind) |
VÁLASZ |
Feladó: (cikkei)
|
Hello,
Kersomarketinggel kapcsolatban, jomagam tobb mint 2 eve uzom, leginkabb
kulfoldi ugyfelek reszere. Nem ordonggosseg, semmi nem kell hozza, nemi
logikan, html ismereten es angol tudason kivul. Rengeteg doksit otletet,
forumot lehet talani a neten.
Csak nehany:
www.serachenginewatch.com
www.webmasterworld.com
www.marketposition.com
A google talalatrendezo algoritmusaban az az erdekes, hogy nem csak azt nezi,
hogy az adott oldalon hanyszor szerepel a kulcsszo, milyen gyakran, mondatt
vegen vagy eljen, stb hanem azt, hogy az adott oldalra hany link mutat? Azaz
milyen a "linkelesi nepszerusege". Hogy a spiderek hanyfelekeppen tudjak
megkozeliteni.
Az azonos betu + hattert ne hasznaljatok mert az enginek legtobbje bannol
erte..sot!!!!
Szvsz a addig volt jo uzlet a keresomarketing amig nem voltak cpc enginek..
Azaz annyit fizet ahanyan rakkatintanak az elso helyezesre. Mostmar
gyakorlatilag az osszes kereso arul talalatokat es az sokkal biztosabb mint
megfizetni egy szakertot aki talan az elso 10-be hoz egy ceget.
Na csak ennyit akartam...
Horasz
Idézet HIX WEBMESTER >:
> =======================================================
> Felado : [Hungary]
> Temakor: Re: Re: nyilo ablak flame weboldal reklamozasa ( 24 ( 30
> sor )
> Idopont: Thu Apr 25 18:23:32 CEST 2002 WEBMESTER #1805
> - - - - - - - - - - - - - - - - - - - - - - - - - - - -
>
> >éppen erre valók azok a cégek, akik kifejezetten keresőmarketingre
> szakoso
> >dtak, ők a szakértelmükkel sokszor elérik, hogy az első
> 10-20-ba
> kerü
> >lj.
>
> És az arcanian.com pont egy ilyen cég ugye ? :)
> Akkor egy nyílt kérdés : mennyibe kerül ?
>
> >
> >A robots.txt pedig kicsit más célokra szolgál, kb. a robotok kizárására
> találtá
> >k ki.
>
> :))))
> És a keresôrobot megelégszik azzal amit a robots.txt-ben talál ?
> Én ezt úgy gondolom, hogy nem. Van egy-két oldalam ahol disallow-al
> kizártam
> a
> keresô robotot aztán mégiscsak van találat ha egy-egy szóra rákeresek a
> keresôkben.
> Vagy rosszul csináltam ?
> Szerintem ez úgy van mint az embereknél megmondják ne lopj !
> aztán meg kell nézni a bünözési statisztikát :)))
> Szóval a keresô robotokat is emberek csinálják....... és szerintem ha
> azt
> találja a robots fájlban,
> hogy disallow akkor azért is az mindent begyüjt, mert úgy gondolkodik,
> hogy
> ez titkos oldal
> és az ô keresôje attól lesz jobb, hogy ezt az oldalt is lehozza
> találatként.
>
> zsolt
|
+ - | Keresőmarketing gondolatok (mind) |
VÁLASZ |
Feladó: (cikkei)
|
Tisztelt HIX Webmester Listások!
Az elmúlt egy-két napban igen sok kérdés merült fel a keresőmarketing területér
ől, amelyekre tudásunk szerint válaszolunk, hiszen ez keresőmarketingesként sza
kmai kötelességünk.
A Google keresőmotoron kívül többeket sem nagyon befolyásol mostanában a META K
EYWORDS tag-ben megadott kulcsszó felsorolás,
- mint az korábban itt is elhangzott - éppen a visszaélések miatt.
A keresőmotorok nem csak nem szeretik, hanem kifejezetten tiltják, büntetik a t
úl kicsi méretű, illetve a háttérhez képest kis
kontrasztú szövegek használatát.
A Google indexelése leginkább a vizsgált oldal internetes ismertségétől (link p
opularity) függ, éppen ezért vannak olyan
oldalak, amelyeket akár naponta meglátogat robotjuk. Mivel ezeket nem lehet meg
vásárolni (lsd. későbbi kivétel, Overture),
ezért ezek között igen sűrűn található amatőrök által fenntartott oldal is. Mi
a GeForce 4 modellek lehetséges nevei kapcsán
találtunk aznapi forrást is a Google által adott találati listában.
A keresőmotorok nagy valószínűséggel használják kiinduló pontként a NIC.hu-n ta
lálható domain listát csakúgy, mint az ingyenes
tárhely szolgáltatók felhasználói listáját. De véletlenül egyetlen robot sem ak
ad rá a website-ra, csak akkor ha valamilyen
módon tudomást szerez létezéséről.
A keresőmotorok közül sajnos csak a kisebbeknek van úgynevezett "voyeur" portja
, amelyen keresztül közvetlen információt
szerezhetünk a legutolsó x darab keresésről, de szerencsére például a Google is
üzemeltet nyilvános, statisztikai célú
szolgáltatás <a href="http://www.google.com/press/zeitgeist.html"> Zeitgeist </
a> néven.
A komoly keresőmotorok találati listájában NEM lehet közvetlenül helyet vásárol
ni (vagy CSAK fizetéssel lehet bejutni, pl.:
GoTo-Overture). A találati lista előtt vagy mellett jól elkülönölő részen megje
lenő pl: Google Adwords Select vagy Origo
"partnerünk ajánlata" helyek azonban értékes marketingeszközök lehetnek.
Némi kritikára válaszolva, hogy vajon hozzáértők vagyunk-e? Nem tudjuk, döntsét
ek el Ti az Origó <a
href="http://vizsla.origo.hu/katalogus?hol=1&q=keres%f5marketing"> "keresőmarke
ting" </a> szavára keresve.
A kulcsszavak, kifejezések alkalmazásával kapcsolatban egy intelem: ha túl sok
(keyword spam), vagy túl kevés az oldalon
taláható kulcsszavak sűrűsége, könnyen kieshettek a keresők találati listájából
. Az első esetben tiltás, büntetés jár a
domain-nek, a második esetben egyszerűen nem találnak rátok. A kettő közötti ar
any középút megtalálása a keresőmarketing
szakértők egyik legfőbb feladata.
Ismereteink szerint a keresők MINDIG figyelembe veszik a robots.txt tartalmát,
ugyanis ha nem tennék, akkor két csapdába is
belefuthatnának: az Internet közössége büntetné meg a keresőt a "figyelmetlensé
géért", másrész könnyen végtelen hurokba
kerülhet a robot egy-egy ilyen "tévedés" miatt. Szívesen segítünk abban, hogy ö
sszeállítsunk egy megfelelő robots.txt-t.
Üdvözlettel:
Fazakas László
Négyesi Károly
Arcanian Consulting
(webes bekuldes, a bekuldo gepe: nilus-500.adsl.datanet.hu)
|
+ - | perl - adatbazisbol torles (mind) |
VÁLASZ |
Feladó: (cikkei)
|
Hali
Keresem a legegyszerubb megoldást
egy adott txt adatbázisból egy sor kitörlésére.
Jelenleg erre tellett:
open(F,"+<$filenev") or &fhiba("$filenev");flock(F,2);
=<F>;seek(F,0,0);
foreach ){
if(/$adat/){print F"";}else{print F"$_"}}
truncate(F,tell(F));flock(F,8);close(F);
Szeretném ezt úgy megoldani,
hogy ugyanazt a végeredményt kapjam és ne kelljen
tömb tipusba beolvasni az egész fájlt hanem közvetlenül
a fájlt olvasom, de ekkor a seek-el mindenféle
pozicionálási probléma elôjött.
Lehet ezt agyáltalán ettôl egyszerubben megoldani ?
zsolt
|
|