Removed $wgMaxBacklinksInvalidate
authorAaron Schulz <aschulz@wikimedia.org>
Wed, 9 Apr 2014 00:26:37 +0000 (17:26 -0700)
committerOri.livneh <ori@wikimedia.org>
Thu, 10 Apr 2014 23:54:31 +0000 (23:54 +0000)
This was a quick hack, introduced in I4fadded0e, that was later made
redundant by $wgJobBackoffThrottling.

Change-Id: Iddc5f6cfd6554ad9b6e54b8ce1b4805af809c7c8

RELEASE-NOTES-1.23
includes/DefaultSettings.php
includes/jobqueue/jobs/HTMLCacheUpdateJob.php

index 244cce7..947a0d6 100644 (file)
@@ -56,6 +56,7 @@ production.
 * $wgLicenseTerms has been removed as it was unused.
 * $wgProfileOnly is now deprecated; set the log file in
   $wgDebugLogGroups['profileoutput'] to replace it.
+* $wgMaxBacklinksInvalidate was removed; use $wgJobBackoffThrottling instead
 
 === New features in 1.23 ===
 * ResourceLoader can utilize the Web Storage API to cache modules client-side.
index 5b2360c..8b8d75c 100644 (file)
@@ -6940,15 +6940,6 @@ $wgUpdateRowsPerJob = 500;
  */
 $wgUpdateRowsPerQuery = 100;
 
-/**
- * Do not purge all the pages that use a page when it is edited
- * if there are more than this many such pages. This is used to
- * avoid invalidating a large portion of the squid/parser cache.
- *
- * This setting should factor in any squid/parser cache expiry settings.
- */
-$wgMaxBacklinksInvalidate = false;
-
 /** @} */ # End job queue }
 
 /************************************************************************//**
index a7c5dc0..4d1e72c 100644 (file)
@@ -40,7 +40,7 @@ class HTMLCacheUpdateJob extends Job {
        }
 
        function run() {
-               global $wgUpdateRowsPerJob, $wgUpdateRowsPerQuery, $wgMaxBacklinksInvalidate;
+               global $wgUpdateRowsPerJob, $wgUpdateRowsPerQuery;
 
                static $expected = array( 'recursive', 'pages' ); // new jobs have one of these
 
@@ -57,14 +57,6 @@ class HTMLCacheUpdateJob extends Job {
 
                // Job to purge all (or a range of) backlink pages for a page
                if ( !empty( $this->params['recursive'] ) ) {
-                       // @TODO: try to use delayed jobs if possible?
-                       if ( !isset( $this->params['range'] ) && $wgMaxBacklinksInvalidate !== false ) {
-                               $numRows = $this->title->getBacklinkCache()->getNumLinks(
-                                       $this->params['table'], $wgMaxBacklinksInvalidate );
-                               if ( $numRows > $wgMaxBacklinksInvalidate ) {
-                                       return true;
-                               }
-                       }
                        // Convert this into no more than $wgUpdateRowsPerJob HTMLCacheUpdateJob per-title
                        // jobs and possibly a recursive HTMLCacheUpdateJob job for the rest of the backlinks
                        $jobs = BacklinkJobUtils::partitionBacklinkJob(