Utomhus växer Liksom andra växter växer cannabis med mer framgång i specifika klimat. Cannabis är dock en stark växt och har spritt sig med stor framgång över hela världen från sitt ursprung i Centralasien. Om du överväger att odla kommersiell cannabis utomhus, var noga med att undersöka den specifika hårdhetszonen på din plats, förutom att: Längden av växtsäsongen Genomsnittlig nederbörd Dagslängd Genomsnittliga temperaturer Höjd över havet Jordkvalitet Hardiness-zonen kommer att definiera antalet utomhusskördar och avkastningspotential som du kan förvänta dig per år. Trots att man genom att manipulera miljön för att öka dina potentiella skördar och avkastningar, kan odla cannabis utomhus i olika odlingszoner. Detta kan göras genom ytterligare vattning eller markdränering, lägger till belysning eller skapar lätt missn��je, väljer skuggade eller fullständiga solplatser och lägger till näringsämnen i marken. Specifika stammar tenderar att göra bättre i olika utomhusklimat, så att välja zonspecifika stammar hjälper också din framgång. Här är några antydda stammar för specifika klimat: Tropisk - Super Silver Haze eller Bob Marley Sativa, Medelhavet - Jack Herer eller Blueberry Subtropisk - Auto Candy Kush eller White Widow Arid - Durban Gift eller Yoruba Nigeria Temperat - Hollandens Hopp eller Ljus av Jah Continental - Northern Lights eller Amnesia Haze Subarctic - Citron Haze Auto eller Purple Power CBD Olja Växthus och Inomhus Växande När man väljer stammar för växthus och inomhus kommersiell cannabisodling är de största problemen som står till förfogande för varje växts höjd och kant. Beroende på tillgängligt utrymme vid din anläggning växer storleken på en växt som kan påverka ditt spänningsval. Växande tekniker, som supercropping och non-veg aeroponisk växande, kan öppna möjligheterna att odla ökande höga växter lättare inomhus. Ny växthus och inomhusteknik kan enkelt upprätthål...
Don't wanna be here? Send us removal request.
Text
Förhindra att Google indexerar din WordPress-administratörsmapp med X-Robots-Tag
Jag skrev nyligen en artikel för State of Digital där jag beklagade standard säkerhetsfunktioner i WordPress. Eftersom det är ett sådant populärt innehållshanteringssystem, är WordPress riktade mot hackare mer än någon annan webbplatsplattform.
WordPress-webbplatser utsätts för hackningsförsök varje dag. Enligt Wordfence mars 2017 angreppsrapport, det var över 32 miljoner försökte brute force attacker mot WordPress webbplatser i den månaden ensam.
Utanför lådan har WordPress några allvarliga säkerhetsbrister som gör att den är sårbar mot brutala kraftattacker. En av dessa brister är hur WordPress förhindrar sökmotorer som Google från att krypa back-end administrationsfiler: genom en enkel robots.txt disallow-regel.
Användaragent: * Tillåt: / wp-admin / Vid första anblicken kan det tyckas helt förnuftigt, det är faktiskt en hemsk lösning. Det finns två stora problem med robots.txt disallow-regeln:
Eftersom en webbplatss robots.txt-fil är offentligt synlig, pekar en disallow-regel hackare till din inloggningsmapp. En disallow-regel hindrar faktiskt inte att sökmotorer visar blockerade sidor i sökresultaten. Jag rekommenderar inte att du använder robots.txt-blockering som en metod för att skydda säkra inloggningsmappar. I stället finns det andra, mer eleganta sätt att se till att dina adminmappar är säkra och kan inte krypas och indexeras av sökmotorer.
X-Robots-Tag HTTP Header
I samband med SEO är de vanligaste HTTP-rubrikerna som folk har hört talas om HTTP-statuskoden och User-Agent-rubriken. Men det finns andra HTTP-rubriker som kan användas av smarta SEO och webbutvecklare för att optimera hur sökmotorer interagerar med en webbplats, till exempel Cache-Control-rubriker och X-Robots-Tag-rubriken.
X-Robots-Taggen är en HTTP-rubrik som informerar sökrobotar ("robots") hur de ska behandla den sida som begärs. Det är den här taggen som kan användas som ett mycket effektivt sätt att förhindra att inloggningsmappar och annan känslig information visas i Googles sökresultat.
Sökmotorer som Google stöder HTTP-rubriken X-Robots-Tag och följer de direktiv som ges av den här rubriken. De direktiv som X-Robots-Tag-rubriken kan ge är nästan identiska med de direktiv som aktiveras av metabutikerns tagg.
Men, i motsats till taggen meta robotar, kräver X-Robots-Tag-rubriken inte en HTML-metakod på varje sida på din sida. Dessutom kan du konfigurera HTTP-rubriken X-Robots-Tag för att fungera för filer där du inte kan inkludera en metatag, till exempel PDF-filer och Word-dokument.
Med några enkla textrader i din webbplatss Apache htaccess-konfigurationsfil kan vi hindra sökmotorer från att inkludera känsliga sidor och mappar i sökresultaten.
Till exempel, med följande textrader i webbplatsens htaccess-fil, kan vi förhindra att alla PDF- och Word-dokumentfiler indexeras av Google:
<Filer ~ "\. (Pdf | doc | docx) $"> Header set X-Robots-Tag "noindex, nofollow" </ Files> Det är alltid en bra idé att konfigurera din webbplats på det här sättet, för att förhindra att potentiellt känsliga dokument visas i Googles sökresultat. Frågan är, kan vi använda X-Robots-Tag-rubriken för att skydda en WordPress-webbplatsens adminmapp?
X-Robots-Tag och / wp-admin
X-Robots-Tag tillåter inte att vi skyddar hela mappar på en gång. Tyvärr, på grund av Apache htaccess-begränsningar utlöser rubriken bara regler som gäller filtyper och inte för hela mappar på din webbplats.
Men eftersom alla WordPresss back-end-funktionalitet finns i mappen / wp-admin (eller vilken mapp du kanske har ändrat det till) kan vi skapa en separat htaccess-fil för den mappen för att säkerställa X-Robots-Tag HTTP-rubriken till Alla webbsidor i den mappen. Allt vi behöver göra är att skapa en ny htaccess-fil som innehåller följande regel:
Header set X-Robots-Tag "noindex, nofollow" Vi använder sedan vårt föredragna FTP-program för att ladda upp denna .htaccess-fil till mappen / wp-admin och voila. Varje sida i avsnittet / wp-admin kommer nu att betjäna HTTP-rubriken X-Robots-Tag med "noindex, nofollow" -direktiven. Detta kommer att se till att WordPress-administratörssidorna aldrig indexeras av sökmotorer.
Du kan också ladda upp en sådan htaccess-fil som är konfigurerad för att betjäna X-Robots-Tag-rubriker till en mapp på din webbplats som du vill skydda på det här sättet. Du kan till exempel ha en mapp där du lagrar känsliga dokument som du vill dela med specifika tredje parter, men vill inte att sökmotorer ska se. Eller om du kör ett annat CMS, kan du använda det här för att skydda det här systemets back-end-mappar från att bli indexerade.
För att kontrollera om en sida på din webbplats serverar HTTP-rubriken X-Robots-Tag kan du använda ett webbläsarplugin som Live HTTP Headers [Firefox] eller Ayima Redirect Path [Chrome], som visar dig ett webbsidans fullständiga HTTP-svar.
2 notes
·
View notes